本文已經收錄到Github倉庫,該倉庫包含計算機基礎、Java基礎、多執行緒、JVM、資料庫、Redis、Spring、Mybatis、SpringMVC、SpringBoot、分散式、微服務、設計模式、架構、校招社招分享等核心知識點,歡迎star~
Github地址:https://github.com/Tyson0314/Java-learning
Kafka 都有哪些特點?
- 高吞吐量、低延遲:kafka每秒可以處理幾十萬條訊息,它的延遲最低只有幾毫秒,每個topic可以分多個partition, consumer group 對partition進行consume操作。
- 可擴充套件性:kafka叢集支援熱擴充套件
- 永續性、可靠性:訊息被持久化到本地磁碟,並且支援資料備份防止資料丟失
- 容錯性:允許叢集中節點失敗(若副本數量為n,則允許n-1個節點失敗)
- 高併發:支援數千個客戶端同時讀寫
請簡述下你在哪些場景下會選擇 Kafka?
- 日誌收集:一個公司可以用Kafka可以收集各種服務的log,透過kafka以統一介面服務的方式開放給各種consumer,例如hadoop、HBase、Solr等。
- 訊息系統:解耦和生產者和消費者、快取訊息等。
- 使用者活動跟蹤:Kafka經常被用來記錄web使用者或者app使用者的各種活動,如瀏覽網頁、搜尋、點選等活動,這些活動資訊被各個伺服器釋出到kafka的topic中,然後訂閱者透過訂閱這些topic來做實時的監控分析,或者裝載到hadoop、資料倉儲中做離線分析和挖掘。
- 運營指標:Kafka也經常用來記錄運營監控資料。包括收集各種分散式應用的資料,生產各種操作的集中反饋,比如報警和報告。
- 流式處理:比如spark streaming和 Flink
Kafka 的設計架構你知道嗎?
Kafka 架構分為以下幾個部分:
- Producer :訊息生產者,就是向 kafka broker 發訊息的客戶端。
- Consumer :訊息消費者,向 kafka broker 取訊息的客戶端。
- Topic :可以理解為一個佇列,一個 Topic 又分為一個或多個分割槽,
- Consumer Group:這是 kafka 用來實現一個 topic 訊息的廣播(發給所有的 consumer)和單播(發給任意一個 consumer)的手段。一個 topic 可以有多個 Consumer Group。
- Broker :一臺 kafka 伺服器就是一個 broker。一個叢集由多個 broker 組成。一個 broker 可以容納多個 topic。
- Partition:為了實現擴充套件性,一個非常大的 topic 可以分佈到多個 broker上,每個 partition 是一個有序的佇列。partition 中的每條訊息都會被分配一個有序的id(offset)。將訊息發給 consumer,kafka 只保證按一個 partition 中的訊息的順序,不保證一個 topic 的整體(多個 partition 間)的順序。
- Offset:kafka 的儲存檔案都是按照 offset.kafka 來命名,用 offset 做名字的好處是方便查詢。例如你想找位於 2049 的位置,只要找到 2048.kafka 的檔案即可。當然 the first offset 就是 00000000000.kafka。
Kafka 分割槽的目的?
分割槽對於 Kafka 叢集的好處是:實現負載均衡。分割槽對於消費者來說,可以提高併發度,提高效率。
你知道 Kafka 是如何做到訊息的有序性?
kafka 中的每個 partition 中的訊息在寫入時都是有序的,而且單獨一個 partition 只能由一個消費者去消費,可以在裡面保證訊息的順序性。但是分割槽之間的訊息是不保證有序的。
Kafka Producer 的執行過程?
1,Producer生產訊息 --> 2,從Zookeeper找到Partition的Leader --> 3,推送訊息 --> 4,透過ISR列表通知給Follower --> 5, Follower從Leader拉取訊息,併傳送ack --> 6,Leader收到所有副本的ack,更新Offset,並向Producer傳送ack,表示訊息寫入成功。
講一下你使用 Kafka Consumer 消費訊息時的執行緒模型,為何如此設計?
Thread-Per-Consumer Model,這種多執行緒模型是利用Kafka的topic分多個partition的機制來實現並行:每個執行緒都有自己的consumer例項,負責消費若干個partition。各個執行緒之間是完全獨立的,不涉及任何執行緒同步和通訊,所以實現起來非常簡單。
請談一談 Kafka 資料一致性原理
一致性就是說不論是老的 Leader 還是新選舉的 Leader,Consumer 都能讀到一樣的資料。
假設分割槽的副本為3,其中副本0是 Leader,副本1和副本2是 follower,並且在 ISR 列表裡面。雖然副本0已經寫入了 Message4,但是 Consumer 只能讀取到 Message2。因為所有的 ISR 都同步了 Message2,只有 High Water Mark 以上的訊息才支援 Consumer 讀取,而 High Water Mark 取決於 ISR 列表裡面偏移量最小的分割槽,對應於上圖的副本2,這個很類似於木桶原理。
這樣做的原因是還沒有被足夠多副本複製的訊息被認為是“不安全”的,如果 Leader 發生崩潰,另一個副本成為新 Leader,那麼這些訊息很可能丟失了。如果我們允許消費者讀取這些訊息,可能就會破壞一致性。試想,一個消費者從當前 Leader(副本0) 讀取並處理了 Message4,這個時候 Leader 掛掉了,選舉了副本1為新的 Leader,這時候另一個消費者再去從新的 Leader 讀取訊息,發現這個訊息其實並不存在,這就導致了資料不一致性問題。
當然,引入了 High Water Mark 機制,會導致 Broker 間的訊息複製因為某些原因變慢,那麼訊息到達消費者的時間也會隨之變長(因為我們會先等待訊息複製完畢)。延遲時間可以透過引數 replica.lag.time.max.ms 引數配置,它指定了副本在複製訊息時可被允許的最大延遲時間。
ISR、OSR、AR 是什麼?
ISR:In-Sync Replicas 副本同步佇列
OSR:Out-of-Sync Replicas
AR:Assigned Replicas 所有副本
ISR是由leader維護,follower從leader同步資料有一些延遲(具體可以參見 圖文了解 Kafka 的副本複製機制),超過相應的閾值會把 follower 剔除出 ISR, 存入OSR(Out-of-Sync Replicas )列表,新加入的follower也會先存放在OSR中。AR=ISR+OSR。
LEO、HW、LSO、LW等分別代表什麼
LEO:是 LogEndOffset 的簡稱,代表當前日誌檔案中下一條
HW:水位或水印(watermark)一詞,也可稱為高水位(high watermark),通常被用在流式處理領域(比如Apache Flink、Apache Spark等),以表徵元素或事件在基於時間層面上的進度。在Kafka中,水位的概念反而與時間無關,而是與位置資訊相關。嚴格來說,它表示的就是位置資訊,即位移(offset)。取 partition 對應的 ISR中 最小的 LEO 作為 HW,consumer 最多隻能消費到 HW 所在的位置上一條資訊。
LSO:是 LastStableOffset 的簡稱,對未完成的事務而言,LSO 的值等於事務中第一條訊息的位置(firstUnstableOffset),對已完成的事務而言,它的值同 HW 相同
LW:Low Watermark 低水位, 代表 AR 集合中最小的 logStartOffset 值。
資料傳輸的事務有幾種?
資料傳輸的事務定義通常有以下三種級別:
(1)最多一次: 訊息不會被重複傳送,最多被傳輸一次,但也有可能一次不傳輸
(2)最少一次: 訊息不會被漏傳送,最少被傳輸一次,但也有可能被重複傳輸.
(3)精確的一次(Exactly once): 不會漏傳輸也不會重複傳輸,每個訊息都傳輸被
Kafka 消費者是否可以消費指定分割槽訊息?
Kafa consumer消費訊息時,向broker發出fetch請求去消費特定分割槽的訊息,consumer指定訊息在日誌中的偏移量(offset),就可以消費從這個位置開始的訊息,customer擁有了offset的控制權,可以向後回滾去重新消費之前的訊息,這是很有意義的。
Kafka訊息是採用Pull模式,還是Push模式?
Kafka最初考慮的問題是,customer應該從brokes拉取訊息還是brokers將訊息推送到consumer,也就是pull還push。在這方面,Kafka遵循了一種大部分訊息系統共同的傳統的設計:producer將訊息推送到broker,consumer從broker拉取訊息。
一些訊息系統比如Scribe和Apache Flume採用了push模式,將訊息推送到下游的consumer。這樣做有好處也有壞處:由broker決定訊息推送的速率,對於不同消費速率的consumer就不太好處理了。訊息系統都致力於讓consumer以最大的速率最快速的消費訊息,但不幸的是,push模式下,當broker推送的速率遠大於consumer消費的速率時,consumer恐怕就要崩潰了。最終Kafka還是選取了傳統的pull模式。
Pull模式的另外一個好處是consumer可以自主決定是否批次的從broker拉取資料。Push模式必須在不知道下游consumer消費能力和消費策略的情況下決定是立即推送每條訊息還是快取之後批次推送。如果為了避免consumer崩潰而採用較低的推送速率,將可能導致一次只推送較少的訊息而造成浪費。Pull模式下,consumer就可以根據自己的消費能力去決定這些策略。
Pull有個缺點是,如果broker沒有可供消費的訊息,將導致consumer不斷在迴圈中輪詢,直到新訊息到t達。為了避免這點,Kafka有個引數可以讓consumer阻塞知道新訊息到達(當然也可以阻塞知道訊息的數量達到某個特定的量這樣就可以批次發
Kafka 高效檔案儲存設計特點
Kafka把topic中一個parition大檔案分成多個小檔案段,透過多個小檔案段,就容易定期清除或刪除已經消費完檔案,減少磁碟佔用。
透過索引資訊可以快速定位message和確定response的最大大小。
透過index後設資料全部對映到memory,可以避免segment file的IO磁碟操作。
透過索引檔案稀疏儲存,可以大幅降低index檔案後設資料佔用空間大小
Kafka建立Topic時如何將分割槽放置到不同的Broker中
副本因子不能大於 Broker 的個數;
第一個分割槽(編號為0)的第一個副本放置位置是隨機從 brokerList 選擇的;
其他分割槽的第一個副本放置位置相對於第0個分割槽依次往後移。也就是如果我們有5個 Broker,5個分割槽,假設第一個分割槽放在第四個 Broker 上,那麼第二個分割槽將會放在第五個 Broker 上;第三個分割槽將會放在第一個 Broker 上;第四個分割槽將會放在第二個 Broker 上,依次類推;
剩餘的副本相對於第一個副本放置位置其實是由 nextReplicaShift 決定的,而這個數也是隨機產生的
談一談 Kafka 的再均衡
在Kafka中,當有新消費者加入或者訂閱的topic數發生變化時,會觸發Rebalance(再均衡:在同一個消費者組當中,分割槽的所有權從一個消費者轉移到另外一個消費者)機制,Rebalance顧名思義就是重新均衡消費者消費。Rebalance的過程如下:
第一步:所有成員都向coordinator傳送請求,請求入組。一旦所有成員都傳送了請求,coordinator會從中選擇一個consumer擔任leader的角色,並把組成員資訊以及訂閱資訊發給leader。
第二步:leader開始分配消費方案,指明具體哪個consumer負責消費哪些topic的哪些partition。一旦完成分配,leader會將這個方案發給coordinator。coordinator接收到分配方案之後會把方案發給各個consumer,這樣組內的所有成員就都知道自己應該消費哪些分割槽了。
所以對於Rebalance來說,Coordinator起著至關重要的作用
Kafka 是如何實現高吞吐率的?
Kafka是分散式訊息系統,需要處理海量的訊息,Kafka的設計是把所有的訊息都寫入速度低容量大的硬碟,以此來換取更強的儲存能力,但實際上,使用硬碟並沒有帶來過多的效能損失。kafka主要使用了以下幾個方式實現了超高的吞吐率:
- 順序讀寫;
- 零複製
- 檔案分段
- 批次傳送
- 資料壓縮。
Kafka 缺點?
- 由於是批次傳送,資料並非真正的實時;
- 對於mqtt協議不支援;
- 不支援物聯網感測資料直接接入;
- 僅支援統一分割槽內訊息有序,無法實現全域性訊息有序;
- 監控不完善,需要安裝外掛;
- 依賴zookeeper進行後設資料管理;
Kafka 新舊消費者的區別
舊的 Kafka 消費者 API 主要包括:SimpleConsumer(簡單消費者) 和 ZookeeperConsumerConnectir(高階消費者)。SimpleConsumer 名字看起來是簡單消費者,但是其實用起來很不簡單,可以使用它從特定的分割槽和偏移量開始讀取訊息。高階消費者和現在新的消費者有點像,有消費者群組,有分割槽再均衡,不過它使用 ZK 來管理消費者群組,並不具備偏移量和再均衡的可操控性。
現在的消費者同時支援以上兩種行為,所以為啥還用舊消費者 API 呢?
Kafka 分割槽數可以增加或減少嗎?為什麼?
我們可以使用 bin/kafka-topics.sh 命令對 Kafka 增加 Kafka 的分割槽資料,但是 Kafka 不支援減少分割槽數。
Kafka 分割槽資料不支援減少是由很多原因的,比如減少的分割槽其資料放到哪裡去?是刪除,還是保留?刪除的話,那麼這些沒消費的訊息不就丟了。如果保留這些訊息如何放到其他分割槽裡面?追加到其他分割槽後面的話那麼就破壞了 Kafka 單個分割槽的有序性。如果要保證刪除分割槽資料插入到其他分割槽保證有序性,那麼實現起來邏輯就會非常複雜。
最後給大家分享一個Github倉庫,上面有大彬整理的300多本經典的計算機書籍PDF,包括C語言、C++、Java、Python、前端、資料庫、作業系統、計算機網路、資料結構和演算法、機器學習、程式設計人生等,可以star一下,下次找書直接在上面搜尋,倉庫持續更新中~