6 個技術點帶你理解 Kafka 高效能背後的原理
來源:君哥聊技術
Kafka 是一款效能非常優秀的訊息佇列,每秒處理的訊息體量可以達到千萬級別。今天來聊一聊 Kafka 高效能背後的技術原理。
1 批次傳送
Kafka 收發訊息都是批次進行處理的。我們看一下 Kafka 生產者傳送訊息的程式碼:
private Future<RecordMetadata> doSend(ProducerRecord<K, V> record, Callback callback) {
TopicPartition tp = null;
try {
//省略前面程式碼
Callback interceptCallback = new InterceptorCallback<>(callback, this.interceptors, tp);
//把訊息追加到之前快取的這一批訊息上
RecordAccumulator.RecordAppendResult result = accumulator.append(tp, timestamp, serializedKey,
serializedValue, headers, interceptCallback, remainingWaitMs);
//積累到設定的快取大小,則傳送出去
if (result.batchIsFull || result.newBatchCreated) {
log.trace("Waking up the sender since topic {} partition {} is either full or getting a new batch", record.topic(), partition);
this.sender.wakeup();
}
return result.future;
// handling exceptions and record the errors;
// for API exceptions return them in the future,
// for other exceptions throw directly
} catch /**省略 catch 程式碼*/
}
從程式碼中可以看到,生產者呼叫 doSend 方法後,並不會直接把訊息傳送出去,而是把訊息快取起來,快取訊息量達到配置的批次大小後,才會傳送出去。
注意:從上面 accumulator.append 程式碼可以看到,一批訊息屬於同一個 topic 下面的同一個 partition。
Broker 收到訊息後,並不會把批次訊息解析成單條訊息後落盤,而是作為批次訊息進行落盤,同時也會把批次訊息直接同步給其他副本。
消費者拉取訊息,也不會按照單條進行拉取,而是按照批次進行拉取,拉取到一批訊息後,再解析成單條訊息進行消費。
使用批次收發訊息,減輕了客戶端和 Broker 的互動次數,提升了 Broker 處理能力。
2 訊息壓縮
如果訊息體比較大,Kafka 訊息吞吐量要達到千萬級別,網路卡支援的網路傳輸頻寬會是一個瓶頸。Kafka 的解決方案是訊息壓縮。傳送訊息時,如果增加引數 compression.type,就可以開啟訊息壓縮:
public static void main(String[] args) {
Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
//開啟訊息壓縮
props.put("compression.type", "gzip");
Producer<String, String> producer = new KafkaProducer<>(props);
ProducerRecord<String, String> record = new ProducerRecord<>("my_topic", "key1", "value1");
producer.send(record, new Callback() {
@Override
public void onCompletion(RecordMetadata metadata, Exception exception) {
if (exception != null) {
logger.error("sending message error: ", e);
} else {
logger.info("sending message successful, Offset: ", metadata.offset());
}
}
});
producer.close();
}
如果 compression.type 的值設定為 none,則不開啟壓縮。那訊息是在什麼時候進行壓縮呢?前面提到過,生產者快取一批訊息後才會傳送,在傳送這批訊息之前就會進行壓縮,程式碼如下:
public RecordAppendResult append(TopicPartition tp,
long timestamp,
byte[] key,
byte[] value,
Header[] headers,
Callback callback,
long maxTimeToBlock) throws InterruptedException {
// ...
try {
// ...
buffer = free.allocate(size, maxTimeToBlock);
synchronized (dq) {
//...
RecordAppendResult appendResult = tryAppend(timestamp, key, value, headers, callback, dq);
if (appendResult != null) {
// Somebody else found us a batch, return the one we waited for! Hopefully this doesn't happen often...
return appendResult;
}
//這批訊息快取已滿,這裡進行壓縮
MemoryRecordsBuilder recordsBuilder = recordsBuilder(buffer, maxUsableMagic);
ProducerBatch batch = new ProducerBatch(tp, recordsBuilder, time.milliseconds());
FutureRecordMetadata future = Utils.notNull(batch.tryAppend(timestamp, key, value, headers, callback, time.milliseconds()));
dq.addLast(batch);
incomplete.add(batch);
// Don't deallocate this buffer in the finally block as it's being used in the record batch
buffer = null;
return new RecordAppendResult(future, dq.size() > 1 || batch.isFull(), true);
}
} finally {
if (buffer != null)
free.deallocate(buffer);
appendsInProgress.decrementAndGet();
}
}
上面的 recordsBuilder 方法最終呼叫了下面 MemoryRecordsBuilder 的構造方法。
public MemoryRecordsBuilder(ByteBufferOutputStream bufferStream,
byte magic,
CompressionType compressionType,
TimestampType timestampType,
long baseOffset,
long logAppendTime,
long producerId,
short producerEpoch,
int baseSequence,
boolean isTransactional,
boolean isControlBatch,
int partitionLeaderEpoch,
int writeLimit) {
//省略其他程式碼
this.appendStream = new DataOutputStream(compressionType.wrapForOutput(this.bufferStream, magic));
}
上面的 wrapForOutput 方法會根據配置的壓縮演算法進行壓縮或者選擇不壓縮。目前 Kafka 支援的壓縮演算法包括:gzip、snappy、lz4,從 2.1.0 版本開始,Kafka 支援 Zstandard 演算法。
在 Broker 端,會解壓 header 做一些校驗,但不會解壓訊息體。訊息體的解壓是在消費端,消費者拉取到一批訊息後,首先會進行解壓,然後進行訊息處理。
因為壓縮和解壓都是耗費 CPU 的操作,所以在開啟訊息壓縮時,也要考慮生產者和消費者的 CPU 資源情況。
有了訊息批次收集和壓縮,kafka 生產者傳送訊息的過程如下圖:
3 磁碟順序讀寫
順序讀寫省去了定址的時間,只要一次定址,就可以連續讀寫。
在固態硬碟上,順序讀寫的效能是隨機讀寫的好幾倍。而在機械硬碟上,定址時需要移動磁頭,這個機械運動會花費很多時間,因此機械硬碟的順序讀寫效能是隨機讀寫的幾十倍。
Kafka 的 Broker 在寫訊息資料時,首先為每個 Partition 建立一個檔案,然後把資料順序地追加到該檔案對應的磁碟空間中,如果這個檔案寫滿了,就再建立一個新檔案繼續追加寫。這樣大大減少了定址時間,提高了讀寫效能。
4 PageCache
在 Linux 系統中,所有檔案 IO 操作都要透過 PageCache,PageCache 是磁碟檔案在記憶體中建立的快取。當應用程式讀寫檔案時,並不會直接讀寫磁碟上的檔案,而是操作 PageCache。
應用程式寫檔案時,都先會把資料寫入 PageCache,然後作業系統定期地將 PageCache 的資料寫到磁碟上。如下圖:
而應用程式在讀取檔案資料時,首先會判斷資料是否在 PageCache 中,如果在則直接讀取,如果不在,則讀取磁碟,並且將資料快取到 PageCache。
Kafka 充分利用了 PageCache 的優勢,當生產者生產訊息的速率和消費者消費訊息的速率差不多時,Kafka 基本可以不用落盤就能完成訊息的傳輸。
5 零複製
Kafka Broker 將訊息傳送給消費端時,即使命中了 PageCache,也需要將 PageCache 中的資料先複製到應用程式的記憶體空間,然後從應用程式的記憶體空間複製到 Socket 快取區,將資料傳送出去。如下圖:
Kafka 採用了零複製技術把資料直接從 PageCache 複製到 Socket 緩衝區中,這樣資料不用複製到使用者態的記憶體空間,同時 DMA 控制器直接完成資料複製,不需要 CPU 參與。如下圖:
Java 零複製技術採用 FileChannel.transferTo() 方法,底層呼叫了 sendfile 方法。
6 mmap
Kafka 的日誌檔案分為資料檔案(.log)和索引檔案(.index),Kafka 為了提高索引檔案的讀取效能,對索引檔案採用了 mmap 記憶體對映,將索引檔案對映到程式的記憶體空間,這樣讀取索引檔案就不需要從磁碟進行讀取。如下圖:
7 總結
本文介紹了 Kafka 實現高效能用到的關鍵技術,這些技術可以為我們學習和工作提供參考。
來自 “ ITPUB部落格 ” ,連結:https://blog.itpub.net/70027827/viewspace-3006753/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 25個關鍵技術點,帶你熟悉PythonPython
- 《青春有你2》全民pick背後的投票技術
- 一文帶你搞懂 CDN 的技術原理
- 榮耀帶你探悉最新款MAGIC4 PRO產線背後的尖端技術
- 帶你理解Lock鎖原理
- 微博春晚背後的技術故事
- 雲集技術學社|帶你瞭解DevOps技術原理dev
- 6個例項帶你解讀TinyVue 元件庫跨框架技術Vue元件框架
- 手摸手帶你理解Vue的Watch原理Vue
- kafka原理解析Kafka
- Google DNS劫持背後的技術分析GoDNS
- 深挖谷歌 DeepMind 和它背後的技術谷歌
- JDV背後的技術-助力618
- 無人駕駛汽車背後的技術
- 瞭解Instagram背後的技術
- TGDC | 探索人臉藝術背後的技術
- 手摸手帶你理解Vue的Computed原理Vue
- Reverse原理背後的數學和魔幻藝術
- ChatGPT 背後核心技術的白話版ChatGPT
- 即時通訊App怎樣才能火?背後的技術原理,可以從這5個角度切入APP
- firewalld: 背後的原理(nftables)
- 快速理解容器技術的實現原理
- ChatGPT強勢爆紅,背後的技術原理是?一文輕鬆搞懂!ChatGPT
- 訊息佇列之Kafka——從架構技術重新理解Kafka佇列Kafka架構
- 前端技術選型及背後思考前端
- 3個框框帶你理解EventLoopOOP
- 人臉識別背後:可怕的不是技術
- GIFTO背後區塊鏈技術的分類區塊鏈
- 滴滴AR實景導航背後的技術
- 揭祕.NET Core剪裁器背後的技術
- 詳解Windows 11背後的技術創新Windows
- 背後支援著 Instagram 的開源技術
- 帶你盤點那些死於2014年的技術
- 你知道微視背後的視訊特效技術是怎樣做出來的嗎?特效
- 直播預告 | “大淘寶技術論壇”太好逛了,背後的技術分享
- 聊聊人像摳圖背後的演算法技術演算法
- 《深空之眼》口型動畫背後的技術支援動畫
- 深入解讀Service Mesh 背後的技術細節