一、dits和fsimage
首先要提到兩個檔案edits和fsimage,下面來說說他們是做什麼的。
- 叢集中的名稱節點(NameNode)會把檔案系統的變化以追加儲存到日誌檔案edits中。
- 當名稱節點(NameNode)啟動時,會從映象檔案 fsimage 中讀取HDFS的狀態,並且把edits檔案中記錄的操作應用到fsimage,也就是合併到fsimage中去。合併後更新fsimage的HDFS狀 態,建立一個新的edits檔案來記錄檔案系統的變化
那麼問題來了,只有在名稱節點(NameNode)啟動的時候才會合併fsimage和edits,那麼久而久之edits檔案會越來越大,特別是大型繁忙的HDFS叢集。這種情況下,由於某種原因你要重啟名稱節點(NameNode),那麼會花費很長的時間去合併fsimge和edits,然後HDFS才能執行。
二、Secondary NameNode
目前使用的版本hadoop-0.20.2可以使用Secondary NameNode來解決上面的問題。Secondary NameNode定期合併fsimage和edits日誌,把edits日誌檔案大小控制在一個限度下。因為記憶體需求和NameNode差不多(On the same order),所以Sencondary NameNode通常要執行在另外個機器上。
secondary NameNode配置在conf/masters檔案,啟動命令:bin/start-dfs.sh(如果你使用不建議的start-all.sh也是會啟動的)。
三、什麼時候checkpiont
secondary NameNode 什麼時候執行checkpoint來合併fsimage和eidts。呢?有兩個配置引數控制:
- fs.checkpoint.period 指定兩次checkpoint的最大時間間隔,預設3600秒。
- fs.checkpoint.size 規定edits檔案的最大值,一旦超過這個值則強制checkpoint,不管是否到達最大時間間隔。預設大小是64M。
secondary NameNode 儲存最後一次checkpoint的結果,儲存結構和主節點(NameNode)的一樣,所以主節點(NameNode)可以隨時來讀取。
如果你沒有啟動secondary NameNode 那麼可以試試 bin/hadoop secondarynamenode -checkpoint 甚至 bin/hadoop secondarynamenode -checkpoint force. 看看生成的檔案。
checkpoint可以解決重啟NameNode時間過長的弊端。另外還有偏方:
四、Import Checkpoint(恢復資料)
如果主節點掛掉了,硬碟資料需要時間恢復或者不能恢復了,現在又想立刻恢復HDFS,這個時候就可以import checkpoint。步驟如下:
- 拿一臺和原來機器一樣的機器,包括配置和檔案,一般來說最快的是拿你節點機器中的一臺,立馬能用(部分配置要改成NameNode的配置)
- 建立一個空的資料夾,該資料夾就是配置檔案中dfs.name.dir所指向的資料夾。
- 拷貝你的secondary NameNode checkpoint出來的檔案,到某個資料夾,該資料夾為fs.checkpoint.dir指向的資料夾
- 執行命令bin/hadoop namenode -importCheckpoint
這樣NameNode會讀取checkpoint檔案,儲存到dfs.name.dir。但是如果你的dfs.name.dir包含合法的fsimage,是會執行失敗的。因為NameNode會檢查fs.checkpoint.dir目錄下映象的一致性,但是不會去改動它。
值得推薦的是,你要注意備份你的dfs.name.dir和 ${hadoop.tmp.dir}/dfs/namesecondary。
五、Checkpoint Node 和 Backup Node
在後續版本中hadoop-0.21.0,還提供了另外的方法來做checkpoint:Checkpoint Node 和 Backup Node。則兩種方式要比secondary NameNode好很多。所以 The Secondary NameNode has been deprecated. Instead, consider using the Checkpoint Node or Backup Node.
Checkpoint Node像是secondary NameNode的改進替代版,Backup Node提供更大的便利,這裡就不再介紹了。