【Kafka】Kafka叢集搭建
一、準備工作
- 伺服器:最好是多臺,大於等於2
- 已經搭建好的zookeeper叢集
- 下載軟體kafka_2.11-0.10.0.1.tgz
二、建立目錄
#建立目錄
cd /opt/
mkdir kafka #建立專案目錄
cd kafka
mkdir kafkalogs #建立kafka訊息目錄,主要存放kafka訊息
#解壓軟體
tar -zxvf kafka_2.11-0.10.0.1.tgz
三、修改配置檔案
進入到config目錄
cd /opt/kafka/kafka_2.11-0.10.0.1/config/
主要關注:server.properties 這個檔案即可,我們可以發現在目錄下:
有很多檔案,這裡可以發現有Zookeeper檔案,我們可以根據Kafka內帶的zk叢集來啟動,但是建議使用獨立的zk叢集。
connect-console-sink.properties log4j.properties
connect-console-source.properties producer.properties
connect-distributed.properties server.properties
connect-file-sink.properties server1.properties
connect-file-source.properties server2.properties
connect-log4j.properties server3.properties
connect-standalone.properties tools-log4j.properties
consumer.properties zookeeper.properties
修改配置檔案:
broker.id=0 #當前機器在叢集中的唯一標識,和zookeeper的myid性質一樣
port=19092 #當前kafka對外提供服務的埠預設是9092
host.name=192.168.7.100 #這個引數預設是關閉的,在0.8.1有個bug,DNS解析問題,失敗率的問題。
num.network.threads=3 #這個是borker進行網路處理的執行緒數
num.io.threads=8 #這個是borker進行I/O處理的執行緒數
log.dirs=/opt/kafka/kafkalogs/ #訊息存放的目錄,這個目錄可以配置為“,”逗號分割的表示式,上面的num.io.threads要大於這個目錄的個數這個目錄,如果配置多個目錄,新建立的topic他把訊息持久化的地方是,當前以逗號分割的目錄中,那個分割槽數最少就放那一個
socket.send.buffer.bytes=102400 #傳送緩衝區buffer大小,資料不是一下子就傳送的,先回儲存到緩衝區了到達一定的大小後在傳送,能提高效能
socket.receive.buffer.bytes=102400 #kafka接收緩衝區大小,當資料到達一定大小後在序列化到磁碟
socket.request.max.bytes=104857600 #這個引數是向kafka請求訊息或者向kafka傳送訊息的請請求的最大數,這個值不能超過java的堆疊大小
num.partitions=1 #預設的分割槽數,一個topic預設1個分割槽數
log.retention.hours=168 #預設訊息的最大持久化時間,168小時,7天
message.max.byte=5242880 #訊息儲存的最大值5M
default.replication.factor=2 #kafka儲存訊息的副本數,如果一個副本失效了,另一個還可以繼續提供服務
replica.fetch.max.bytes=5242880 #取訊息的最大直接數
log.segment.bytes=1073741824 #這個引數是:因為kafka的訊息是以追加的形式落地到檔案,當超過這個值的時候,kafka會新起一個檔案
log.retention.check.interval.ms=300000 #每隔300000毫秒去檢查上面配置的log失效時間(log.retention.hours=168 ),到目錄檢視是否有過期的訊息如果有,刪除
log.cleaner.enable=false #是否啟用log壓縮,一般不用啟用,啟用的話可以提高效能
zookeeper.connect=localhost:2181,localhost:2182,localhost:2183 #設定zookeeper的連線埠
四、啟動Kafka叢集
1.啟動服務
#從後臺啟動Kafka叢集(3臺都需要啟動)
cd
/opt/kafka/kafka_2.11-0.10.0.1//bin #進入到kafka的bin目錄
./kafka-server-start.sh -daemon ../config/server.properties
2.檢查服務是否啟動
#執行命令jps
20348 Jps
4233 QuorumPeerMain
18991 Kafka
3.建立topic
#建立Topic
./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 2 --partitions 1 --topic meinv
#解釋
--replication-factor 2 #複製兩份
--partitions 1 #建立1個分割槽
--topic #主題為meinv
'''在一臺伺服器上建立一個釋出者'''
#建立一個broker,釋出者
./kafka-console-producer.sh --broker-list 192.168.7.100:19092 --topic meinv
'''在一臺伺服器上建立一個訂閱者'''
./kafka-console-consumer.sh --zookeeper localhost:12181 --topic meinv --from-beginning
相關文章
- kafka叢集搭建Kafka
- zookeeper叢集及kafka叢集搭建Kafka
- kafka-2.11叢集搭建Kafka
- Mac 使用 docker 搭建 kafka 叢集 + Zookeeper + kafka-managerMacDockerKafka
- 用 Docker 快速搭建 Kafka 叢集DockerKafka
- Zookeeper叢集 + Kafka叢集Kafka
- Kafka叢集配置Kafka
- Kafka叢集搭建及必知必會Kafka
- linux 原始碼搭建Kafka叢集,100%有效Linux原始碼Kafka
- linux搭建kafka叢集,多master節點叢集說明LinuxKafkaAST
- 安裝Kafka叢集Kafka
- 初識kafka叢集Kafka
- SpringBoot 和 Kafka 叢集Spring BootKafka
- kafka系列二:多節點分散式叢集搭建Kafka分散式
- Apache Kafka – 叢集架構ApacheKafka架構
- 06 . ELK Stack + kafka叢集Kafka
- 快速安裝 kafka 叢集Kafka
- Kafka_2.12-2.5.1叢集搭建與引數調優Kafka
- 安裝Zookeeper和Kafka叢集Kafka
- DevOpsSOP 基於阿里雲VPC搭建Storm+Kafka+Zookeeper叢集dev阿里ORMKafka
- KubeSphere 部署 Kafka 叢集實戰指南Kafka
- alpakka-kafka(5)-kafka叢集配置與分散式應用部署Kafka分散式
- K8S 搭建 Kafka:2.13-2.6.0 和 Zookeeper:3.6.2 叢集K8SKafka
- linux搭建kafka叢集,詳細到複製命令就能成功LinuxKafka
- Kafka 叢集如何實現資料同步?Kafka
- RabbitMQ和Kafka的高可用叢集原理MQKafka
- Zookeeper3.4.14(單叢集)、Kafka_2.12-2.2.2(叢集)安裝Kafka
- 使用Rainbond部署Logikm,輕鬆管理Kafka叢集AIKafka
- kafka叢集管理重要操作指令運維兵書-kafka 商業環境實戰Kafka運維
- wsl 中 docker-compose 搭建 kafka 叢集出現的外部訪問錯誤DockerKafka
- 記一次Kafka叢集的故障恢復Kafka
- 如何在Ubuntu-16.04上配置Apache Kafka叢集!UbuntuApacheKafka
- 30分鐘帶你搞定Dokcer部署Kafka叢集Kafka
- kafka入門:簡介、使用場景、設計原理、主要配置及叢集搭建(轉)Kafka
- 用 Vagrant 一鍵部署開發環境 kafka 叢集開發環境Kafka
- Kafka叢集訊息積壓問題及處理策略Kafka
- kafka問題集錦Kafka
- kafka叢集Producer基本資料結構及工作流程深入剖析-kafka 商業環境實戰Kafka資料結構
- Kafka叢集安裝Version2.10Kafka