記錄自定義kafka的parcel庫,CDH安裝kafka服務,無法安裝過去的排雷過程
1.版本
CDH5.9.1 安裝KAFKA-2.0.2-1.2.0.2.p0.5-el6 失敗
CDH5.9.1 安裝KAFKA-2.1.0-1.2.1.0.p0.115-el6 失敗
CDH5.10.0 安裝KAFKA-2.1.1-1.2.1.1.p0.18-el6 失敗
2.錯誤描述
自定義kafka的parcel庫,安裝kafka服務,無法安裝過去。
2.1開啟 stdout,stderr,Role Log 三個日誌輸出,
我們一般出現問題,只會看Role log的,這時拋錯為"Will not attempt to authenticate using SASL (unknown error)",這時我們就分析kafka連線不上zk,
於是Google,百度等等,各種檢查一大堆,最後沒有解決問題。
2.2具體排查:
3.Role log:
Opening socket connection to server sht-sgmhadoopdn-03/172.16.101.60:2181. Will not attempt to authenticate using SASL (unknown error)
4.stdout:
java.lang.OutOfMemoryError: Java heap space
5.stderr:
+ grep -q OnOutOfMemoryError /proc/14495/cmdline
+ RET=0
+ '[' 0 -eq 0 ']'
+ TARGET=14495
++ date
+ echo Thu Mar 30 18:10:20 CST 2017
+ kill -9 14495
6.經過n次的排查操作,無效。這時我才仔細去看stdout 和 stderr日誌,發現這麼一句話“OnOutOfMemoryError”,
剛開始我已經注意到這句話,但是沒有仔細去想,所以耗時差不多1.5工作日。
7.我們需要刪除kafka服務,重新安裝,那麼最好也要將kafka的log.dirs引數的值為"/var/local/kafka/data",這個目錄,安裝的機器上手工刪除掉。
8.於是我們另外開啟cdh的home介面,發現kafka已經安裝上,就是啟動失敗,然後去kafka的配置介面搜尋"memory"字樣,修改為1G,儲存。
9.啟動kafka即可。
10.思考
在第一次安裝時,介面中沒有配置這個引數的值。
為什麼,為什麼,為什麼kafka的在安裝時broker_max_heap_size這個引數設定的這麼小?
CDH5.9.1 安裝KAFKA-2.0.2-1.2.0.2.p0.5-el6 失敗
CDH5.9.1 安裝KAFKA-2.1.0-1.2.1.0.p0.115-el6 失敗
CDH5.10.0 安裝KAFKA-2.1.1-1.2.1.1.p0.18-el6 失敗
2.錯誤描述
自定義kafka的parcel庫,安裝kafka服務,無法安裝過去。
2.1開啟 stdout,stderr,Role Log 三個日誌輸出,
我們一般出現問題,只會看Role log的,這時拋錯為"Will not attempt to authenticate using SASL (unknown error)",這時我們就分析kafka連線不上zk,
於是Google,百度等等,各種檢查一大堆,最後沒有解決問題。
2.2具體排查:
- 防火牆,
- 埠號,
- /etc/hosts檔案,
- zoo.cfg檔案,
- 使用者許可權,
- kafka的zk jar包(客戶端)和zookeeper的jar包版本,
- kafka broker程式的記憶體太小,直接oom
3.Role log:
Opening socket connection to server sht-sgmhadoopdn-03/172.16.101.60:2181. Will not attempt to authenticate using SASL (unknown error)
4.stdout:
java.lang.OutOfMemoryError: Java heap space
5.stderr:
+ grep -q OnOutOfMemoryError /proc/14495/cmdline
+ RET=0
+ '[' 0 -eq 0 ']'
+ TARGET=14495
++ date
+ echo Thu Mar 30 18:10:20 CST 2017
+ kill -9 14495
6.經過n次的排查操作,無效。這時我才仔細去看stdout 和 stderr日誌,發現這麼一句話“OnOutOfMemoryError”,
剛開始我已經注意到這句話,但是沒有仔細去想,所以耗時差不多1.5工作日。
7.我們需要刪除kafka服務,重新安裝,那麼最好也要將kafka的log.dirs引數的值為"/var/local/kafka/data",這個目錄,安裝的機器上手工刪除掉。
8.於是我們另外開啟cdh的home介面,發現kafka已經安裝上,就是啟動失敗,然後去kafka的配置介面搜尋"memory"字樣,修改為1G,儲存。
9.啟動kafka即可。
10.思考
在第一次安裝時,介面中沒有配置這個引數的值。
為什麼,為什麼,為什麼kafka的在安裝時broker_max_heap_size這個引數設定的這麼小?
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/30089851/viewspace-2136372/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Cloudera CDH 、Impala本地透過Parcel安裝配置詳解Cloud
- 自定義msi安裝包的執行過程
- kafka安裝Kafka
- Windows如何安裝自定義服務Windows
- 重新記錄一下ArcGisEngine安裝的過程
- kafka的安裝與使用Kafka
- kafka的安裝及使用Kafka
- 在windows上安裝scala過程記錄Windows
- apache, php, mysql 安裝過程命令記錄ApachePHPMySql
- kafka manager安裝Kafka
- webpack的安裝過程Web
- 記錄NLTK安裝使用全過程--pythonPython
- 【轉】CentOS 6.5安裝pyspider過程記錄CentOSIDE
- Kafka 的安裝及啟動Kafka
- kafka 安裝到使用Kafka
- 安裝測試kafkaKafka
- Kafka安裝-linuxKafkaLinux
- Kafka2.8安裝Kafka
- Linux安裝KafkaLinuxKafka
- Linux 安裝kafkaLinuxKafka
- kafka和zookeeper安裝Kafka
- 安裝Kafka叢集Kafka
- kafka安裝及使用Kafka
- 4-kafka安裝Kafka
- 安裝wampserver的過程Server
- cocoaPods的安裝過程
- Kafka 簡單實驗一(安裝Kafka)Kafka
- APK安裝過程APK
- kafka的認識、安裝與配置Kafka
- Kafka SSL安裝與配置Kafka
- 使用 Bitnami Helm 安裝 KafkaKafka
- 快速安裝 kafka 叢集Kafka
- kafka 安裝部署,使用教程Kafka
- Kafka學習之(二)Centos下安裝KafkaKafkaCentOS
- 記錄Mac Pro M1晶片安裝HomeBrew的過程吧Mac晶片
- 記一次完整的wordpress安裝過程
- linux環境安裝——kafka安裝複習LinuxKafka
- selenium安裝過程