如何保證訊息佇列的可靠性傳輸?

lihong發表於2019-04-28

面試題

如何保證訊息的可靠性傳輸?或者說,如何處理訊息丟失的問題?

面試官心理分析

這個是肯定的,用 MQ 有個基本原則,就是 資料不能多一條,也不能少一條 ,不能多,就是前面說的重複消費和冪等性問題。不能少,就是說這資料別搞丟了。那這個問題你必須得考慮一下。

如果說你這個是用 MQ 來傳遞非常核心的訊息,比如說計費、扣費的一些訊息,那必須確保這個 MQ 傳遞過程中 絕對不會把計費訊息給弄丟

面試題剖析

資料的丟失問題,可能出現在生產者、MQ、消費者中,我們們從 RabbitMQ 和 Kafka 分別來分析一下吧。

RabbitMQ


如何保證訊息佇列的可靠性傳輸?


生產者弄丟了資料

生產者將資料傳送到 RabbitMQ 的時候,可能資料就在半路給搞丟了,因為網路問題啥的,都有可能。

此時可以選擇用 RabbitMQ 提供的事務功能,就是生產者 傳送資料之前 開啟 RabbitMQ 事務 channel.txSelect ,然後傳送訊息,如果訊息沒有成功被 RabbitMQ 接收到,那麼生產者會收到異常報錯,此時就可以回滾事務 channel.txRollback ,然後重試傳送訊息;如果收到了訊息,那麼可以提交事務 channel.txCommit

// 開啟事務
channel.txSelect
try {
    // 這裡傳送訊息
} catch (Exception e) {
    channel.txRollback
    // 這裡再次重發這條訊息
}
// 提交事務
channel.txCommit

但是問題是,RabbitMQ 事務機制(同步)一搞,基本上 吞吐量會下來,因為太耗效能

所以一般來說,如果你要確保說寫 RabbitMQ 的訊息別丟,可以開啟  confirm  模式,在生產者那裡設定開啟  confirm  模式之後,你每次寫的訊息都會分配一個唯一的 id,然後如果寫入了 RabbitMQ 中,RabbitMQ 會給你回傳一個  ack  訊息,告訴你說這個訊息 ok 了。如果 RabbitMQ 沒能處理這個訊息,會回撥你的一個  nack  介面,告訴你這個訊息接收失敗,你可以重試。而且你可以結合這個機制自己在記憶體裡維護每個訊息 id 的狀態,如果超過一定時間還沒接收到這個訊息的回撥,那麼你可以重發。

事務機制和  cnofirm  機制最大的不同在於, 事務機制是同步的 ,你提交一個事務之後會 阻塞 在那兒,但是  confirm  機制是 非同步 的,你傳送個訊息之後就可以傳送下一個訊息,然後那個訊息 RabbitMQ 接收了之後會非同步回撥你的一個介面通知你這個訊息接收到了。

所以一般在生產者這塊 避免資料丟失 ,都是用  confirm  機制的。

RabbitMQ 弄丟了資料

就是 RabbitMQ 自己弄丟了資料,這個你必須 開啟 RabbitMQ 的持久化 ,就是訊息寫入之後會持久化到磁碟,哪怕是 RabbitMQ 自己掛了, 恢復之後會自動讀取之前儲存的資料 ,一般資料不會丟。除非極其罕見的是,RabbitMQ 還沒持久化,自己就掛了, 可能導致少量資料丟失 ,但是這個機率較小。

設定持久化有 兩個步驟

  • 建立 queue 的時候將其設定為持久化
    這樣就可以保證 RabbitMQ 持久化 queue 的後設資料,但是它是不會持久化 queue 裡的資料的。
  • 第二個是傳送訊息的時候將訊息的  deliveryMode  設定為 2
    就是將訊息設定為持久化的,此時 RabbitMQ 就會將訊息持久化到磁碟上去。

必須要同時設定這兩個持久化才行,RabbitMQ 哪怕是掛了,再次重啟,也會從磁碟上重啟恢復 queue,恢復這個 queue 裡的資料。

注意,哪怕是你給 RabbitMQ 開啟了持久化機制,也有一種可能,就是這個訊息寫到了 RabbitMQ 中,但是還沒來得及持久化到磁碟上,結果不巧,此時 RabbitMQ 掛了,就會導致記憶體裡的一點點資料丟失。

所以,持久化可以跟生產者那邊的  confirm  機制配合起來,只有訊息被持久化到磁碟之後,才會通知生產者  ack  了,所以哪怕是在持久化到磁碟之前,RabbitMQ 掛了,資料丟了,生產者收不到  ack ,你也是可以自己重發的。

消費端弄丟了資料

RabbitMQ 如果丟失了資料,主要是因為你消費的時候, 剛消費到,還沒處理,結果程式掛了 ,比如重啟了,那麼就尷尬了,RabbitMQ 認為你都消費了,這資料就丟了。

這個時候得用 RabbitMQ 提供的  ack  機制,簡單來說,就是你必須關閉 RabbitMQ 的自動  ack ,可以透過一個 api 來呼叫就行,然後每次你自己程式碼裡確保處理完的時候,再在程式裡  ack  一把。這樣的話,如果你還沒處理完,不就沒有  ack  了?那 RabbitMQ 就認為你還沒處理完,這個時候 RabbitMQ 會把這個消費分配給別的 consumer 去處理,訊息是不會丟的。


如何保證訊息佇列的可靠性傳輸?


Kafka

消費端弄丟了資料

唯一可能導致消費者弄丟資料的情況,就是說,你消費到了這個訊息,然後消費者那邊 自動提交了 offset ,讓 Kafka 以為你已經消費好了這個訊息,但其實你才剛準備處理這個訊息,你還沒處理,你自己就掛了,此時這條訊息就丟咯。

這不是跟 RabbitMQ 差不多嗎,大家都知道 Kafka 會自動提交 offset,那麼只要 關閉自動提交 offset,在處理完之後自己手動提交 offset,就可以保證資料不會丟。但是此時確實還是 可能會有重複消費 ,比如你剛處理完,還沒提交 offset,結果自己掛了,此時肯定會重複消費一次,自己保證冪等性就好了。

生產環境碰到的一個問題,就是說我們的 Kafka 消費者消費到了資料之後是寫到一個記憶體的 queue 裡先緩衝一下,結果有的時候,你剛把訊息寫入記憶體 queue,然後消費者會自動提交 offset。然後此時我們重啟了系統,就會導致記憶體 queue 裡還沒來得及處理的資料就丟失了。

Kafka 弄丟了資料

這塊比較常見的一個場景,就是 Kafka 某個 broker 當機,然後重新選舉 partition 的 leader。大家想想,要是此時其他的 follower 剛好還有些資料沒有同步,結果此時 leader 掛了,然後選舉某個 follower 成 leader 之後,不就少了一些資料?這就丟了一些資料啊。

生產環境也遇到過,我們也是,之前 Kafka 的 leader 機器當機了,將 follower 切換為 leader 之後,就會發現說這個資料就丟了。

所以此時一般是要求起碼設定如下 4 個引數:

  • 給 topic 設定  replication.factor  引數:這個值必須大於 1,要求每個 partition 必須有至少 2 個副本。
  • 在 Kafka 服務端設定  min.insync.replicas  引數:這個值必須大於 1,這個是要求一個 leader 至少感知到有至少一個 follower 還跟自己保持聯絡,沒掉隊,這樣才能確保 leader 掛了還有一個 follower 吧。
  • 在 producer 端設定  acks=all :這個是要求每條資料,必須是 寫入所有 replica 之後,才能認為是寫成功了
  • 在 producer 端設定  retries=MAX (很大很大很大的一個值,無限次重試的意思):這個是 要求一旦寫入失敗,就無限重試 ,卡在這裡了。

我們生產環境就是按照上述要求配置的,這樣配置之後,至少在 Kafka broker 端就可以保證在 leader 所在 broker 發生故障,進行 leader 切換時,資料不會丟失。

生產者會不會弄丟資料?

如果按照上述的思路設定了  acks=all ,一定不會丟,要求是,你的 leader 接收到訊息,所有的 follower 都同步到了訊息之後,才認為本次寫成功了。如果沒滿足這個條件,生產者會自動不斷的重試,重試無限次。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69917606/viewspace-2642810/,如需轉載,請註明出處,否則將追究法律責任。

相關文章