執行start-dfs.sh後,datenode沒有啟動,很大一部分原因是因為在第一次格式化dfs後,啟動並使用了hadoop,後來又重新執行了格式化命令(hdfs namenode -format),這時主節點namenode的clusterID會重新生成,而從節點datanode的clusterID 保持不變導致的。
解決辦法如下:
開啟hdfs-site.xml找到如下節點
如上找到namenode和datanode(這個datanode是在從節點計算機中檢視)的檔案路徑。分別進入這兩個目錄,分別開啟VERSION檢視clusterID是否一致。如果不一致,將namenode中的clusterID值賦值給datanode中VERSION中的clusterID。然後在重新執行指令碼start-dfs.sh.