大資料03-整合 Flume 和 Kafka 收集日誌
有了之前的介紹,我們可以使用 Flume 和 Kafka 一起來完成專案日誌輸出到 kafka,然後程式設計消費者進行日誌處理。
1、示例圖
示例圖
下面藍色的是我們需要修改的
2、配置 flume
在 A 機器上,(也可以在 C 機器上,這裡為了方便) flume 中新增一個配置檔案 avro-mem-kafka.conf
注意 bootstrap.servers 的寫法,需要和版本對應
# Baseavro-mem-kafka.sources = avro-source avro-mem-kafka.sinks = kafka-sink avro-mem-kafka.channels = mem-channel# Sourceavro-mem-kafka.sources.avro-source.type = avro avro-mem-kafka.sources.avro-source.bind = localhost avro-mem-kafka.sources.avro-source.port = 44444# Sink = org.apache.flume.sink.kafka.KafkaSink avro-mem-kafka.sinks.kafka-sink.kafka.bootstrap.servers=PLAINTEXT://192.168.31.122:9092,PLAINTEXT://192.168.31.122:9093,PLAINTEXT://192.168.31.122:9094avro-mem-kafka.sinks.kafka-sink.kafka.topic=my-replicated-topic# Channelavro-mem-kafka.channels.mem-channel.type = memory# Linkavro-mem-kafka.sources.avro-source.channels = mem-channel avro-mem-kafka.sinks.kafka-sink.channel = mem-channel
啟動 Kafka
在 C 機器上先啟動 ZK,再啟動 Kafka 叢集
zkServer.sh start kafka-server-start.sh $KAFKA_HOME/config/server.properties & kafka-server-start.sh $KAFKA_HOME/config/server-1.properties & kafka-server-start.sh $KAFKA_HOME/config/server-2.properties &
啟動 flume
這兩個指令碼都在 A 機器上執行,也可以分開
$ bin/flume-ng agent --conf $FLUME_HOME/conf --conf-file $FLUME_HOME/conf/avro-mem-kafka.conf --name avro-mem-kafka -Dflume.root.logger=DEBUG,console -Dorg.apache.flume.log.printconfig=true -Dorg.apache.flume.log.rawdata=true$ bin/flume-ng agent --conf $FLUME_HOME/conf --conf-file $FLUME_HOME/conf/exec-mem-avro.conf --name exec-mem-avro -Dflume.root.logger=DEBUG,console -Dorg.apache.flume.log.printconfig=true -Dorg.apache.flume.log.rawdata=true
開啟消費者
kafka-console-consumer.sh --bootstrap-server PLAINTEXT://192.168.31.122:9092,PLAINTEXT://192.168.31.122:9093,PLAINTEXT://192.168.31.122:9094 --from-beginning --topic my-replicated-topic
在 A 機器上輸入日誌,將會看到消費者列印出
作者:breezedancer
連結:
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/2819/viewspace-2815050/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 大資料01-Flume 日誌收集大資料
- Flume收集日誌到本地目錄
- Flume+Kafka收集Docker容器內分散式日誌應用實踐KafkaDocker分散式
- 資料採集元件:Flume基礎用法和Kafka整合元件Kafka
- 使用Kafka做日誌收集Kafka
- Flume 整合 Kafka_flume 到kafka 配置【轉】Kafka
- 大資料3-Flume收集資料+落地HDFS大資料
- 大資料流處理:Flume、Kafka和NiFi對比大資料KafkaNifi
- filebeat 收集nginx日誌輸出到kafkaNginxKafka
- kafka+flume的整合Kafka
- 大資料4.1 - Flume整合案例+Hive資料倉大資料Hive
- flume日誌採集,hbase資料儲存,hive查詢輸出(簡單整合)Hive
- net core3.1整合收集日誌- sentry
- 大資料開發過程中Kafka日誌結構解析大資料Kafka
- 日誌採集框架Flume框架
- 大資料應用-Flume+HBase+Kafka整合資料採集/儲存/分發完整流程測試03.大資料Kafka
- Kafka 入門(二)--資料日誌、副本機制和消費策略Kafka
- 系統日誌及資料庫相關資訊收集資料庫
- 基於 kafka 的日誌資料建模測試Kafka
- 日誌收集和鏈路追蹤:skywalking
- 大資料之Flume(二)大資料
- Vector + ClickHouse 收集日誌
- rac日誌收集方法
- logstash收集springboot日誌Spring Boot
- Rainbond通過外掛整合ELK/EFK,實現日誌收集AI
- Docker應用容器日誌資訊收集Docker
- Flume將 kafka 中的資料轉存到 HDFS 中Kafka
- 開源大資料叢集部署(九)Ranger審計日誌整合(solr)大資料RangerSolr
- SpringBoot使用ELK日誌收集Spring Boot
- Linux-ELK日誌收集Linux
- ELK+kafka+Winlogbeat/FileBeat搭建統一日誌收集分析管理系統Kafka
- Flume和Hive整合之hive sinkHive
- 使用Flume消費Kafka資料到HDFSKafka
- Flume 實現自己的實時日誌(2)
- 通過 Systemd Journal 收集日誌
- (四)Logstash收集、解析日誌方法
- ELK+logspout收集Docker日誌Docker
- TFA-收集日誌及分析