【linux】修改ip後hadoop只有四個節點的問題

大魔王2021發表於2021-10-31

學校的機房,每重啟一次就會將虛擬機器的某些配置還原到部署到學生機時候的狀態(例如、etc/hosts檔案中ip與主機名的對映),這個時候與我們前面所部署的hadoop就會產生IP不對應的狀態,導致了hadoop不管怎麼啟動都只是有四個節點,dataonde節點怎麼都啟動不成功,經歷了n多次以後,才發現,在 /etc/hosts 檔案下的ip並不是當前配置的ip地址,我們將/etc/hosts 中ip與主機名的對映 中的ip修改為當前的ip地址。這個是第一步。
然後我們到hadoop安裝的根目錄下的etc/hadoop/去編輯core-site.xml檔案,將裡面的ip地址改為我們當前的ip,記住儲存退出。
下來我們在將hadoop的data儲存路徑幹掉,我的是在/home/data/tmp/dfs目錄下,所以我們rm -rf 他。再到hadoop的根目錄下的bin目錄去執行hdfs格式化命令去重新格式化hdfs,
格式化成功後在重新啟動hadoop,此時就會發現有五個節點。

相關文章