IBM伺服器raid5兩塊硬碟離線資料恢復過程
伺服器故障情況簡介:
客戶的一臺ibm x3850伺服器上組了一個raid5磁碟陣列,有兩塊硬碟離線,伺服器崩潰。資料恢復公司工程師對伺服器進行初檢,客戶的磁碟陣列由5塊硬碟組成,linux redhat 5.3作業系統,儲存一個oracle資料庫。陣列中有兩塊硬碟處於離線狀態,熱備盤未啟用。硬碟無物理故障,無明顯同步表現。
資料恢復方案:
1.關閉伺服器同時確保在恢復過程中不再開啟伺服器,將故障盤進行標記後取出槽位掛載至資料恢復公司的備份伺服器環境進行映象備份。完成後恢復原故障伺服器。
2.分析備份盤中的raid結構,得到原陣列中的raid界別、條帶大小、校驗方向、條帶規則以及meta區域等資訊。
根據分析出來的raid資訊虛擬搭建一組raid5環境對磁碟檔案系統進行解釋,對虛擬結構的正確性檢測,資料無誤即可回遷資料。
伺服器資料恢復及系統復原過程:
3. 對原硬碟映象後發現除了2號盤有10-20個壞扇區外其他硬碟均正常。
4. 對raid結構進行分析,最佳盤序結構是0-1-2-3,缺失3號盤,結構如下圖:
5.組好後資料驗證,200M以上的最新壓縮包解壓無報錯,按照這一結構將虛擬raid生成到一塊硬碟上,透過USB的方式把恢復後的單盤接入原伺服器,透過linux SystemRescueCd啟動故障伺服器後使用dd命令進行全盤迴寫。
6. 資料回寫完成後無法進入作業系統,報錯資訊為:/etc/rc.d/rc.sysinit:Line 1:/sbin/pidof:Permission denied。工程師使用SystemRescueCd重啟後檢查發現檔案的許可權、時間、大小都有明顯錯誤,對根分割槽再次分析定位出錯的/sbin/pidof/datahf.net,得出問題原因是2號盤壞道。
7. 透過其他盤針對2號盤的損壞區域進行xor補齊並重新校驗檔案系統,依然有錯誤,工程師只好再次對inode表進行檢查,發現2號盤損壞區域有部分節點表現為(圖中的55 55 55部分):
可以看出雖然節點中描述的uid還正常存在,但大小、屬性、最初的分配塊全部是錯誤的。透過日誌確定原節點塊的節點資訊後進行修正,重新dd根分割槽,執行fsck -fn /dev/sda5/datahf.net檢測,報錯情況如下圖:
經過分析發現,原來3號盤最先離線,節點資訊新舊交集導致有多個節點共用資料塊,工程師按節點所屬的檔案進行區別,清除錯誤節點後,再次執行fsck -fn /dev/sda5,依然有部分位於doc目錄下的節點報錯,由於不影響啟動所以強行修復後重啟系統,系統正常,啟動資料庫正常。此次資料恢復工作成功。
客戶的一臺ibm x3850伺服器上組了一個raid5磁碟陣列,有兩塊硬碟離線,伺服器崩潰。資料恢復公司工程師對伺服器進行初檢,客戶的磁碟陣列由5塊硬碟組成,linux redhat 5.3作業系統,儲存一個oracle資料庫。陣列中有兩塊硬碟處於離線狀態,熱備盤未啟用。硬碟無物理故障,無明顯同步表現。
資料恢復方案:
1.關閉伺服器同時確保在恢復過程中不再開啟伺服器,將故障盤進行標記後取出槽位掛載至資料恢復公司的備份伺服器環境進行映象備份。完成後恢復原故障伺服器。
2.分析備份盤中的raid結構,得到原陣列中的raid界別、條帶大小、校驗方向、條帶規則以及meta區域等資訊。
根據分析出來的raid資訊虛擬搭建一組raid5環境對磁碟檔案系統進行解釋,對虛擬結構的正確性檢測,資料無誤即可回遷資料。
伺服器資料恢復及系統復原過程:
3. 對原硬碟映象後發現除了2號盤有10-20個壞扇區外其他硬碟均正常。
4. 對raid結構進行分析,最佳盤序結構是0-1-2-3,缺失3號盤,結構如下圖:
5.組好後資料驗證,200M以上的最新壓縮包解壓無報錯,按照這一結構將虛擬raid生成到一塊硬碟上,透過USB的方式把恢復後的單盤接入原伺服器,透過linux SystemRescueCd啟動故障伺服器後使用dd命令進行全盤迴寫。
6. 資料回寫完成後無法進入作業系統,報錯資訊為:/etc/rc.d/rc.sysinit:Line 1:/sbin/pidof:Permission denied。工程師使用SystemRescueCd重啟後檢查發現檔案的許可權、時間、大小都有明顯錯誤,對根分割槽再次分析定位出錯的/sbin/pidof/datahf.net,得出問題原因是2號盤壞道。
7. 透過其他盤針對2號盤的損壞區域進行xor補齊並重新校驗檔案系統,依然有錯誤,工程師只好再次對inode表進行檢查,發現2號盤損壞區域有部分節點表現為(圖中的55 55 55部分):
可以看出雖然節點中描述的uid還正常存在,但大小、屬性、最初的分配塊全部是錯誤的。透過日誌確定原節點塊的節點資訊後進行修正,重新dd根分割槽,執行fsck -fn /dev/sda5/datahf.net檢測,報錯情況如下圖:
經過分析發現,原來3號盤最先離線,節點資訊新舊交集導致有多個節點共用資料塊,工程師按節點所屬的檔案進行區別,清除錯誤節點後,再次執行fsck -fn /dev/sda5,依然有部分位於doc目錄下的節點報錯,由於不影響啟動所以強行修復後重啟系統,系統正常,啟動資料庫正常。此次資料恢復工作成功。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31380569/viewspace-2152613/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- raid5陣列兩塊硬碟離線資料恢復過程AI陣列硬碟資料恢復
- 儲存有兩塊硬碟離線恢復資料的過程硬碟
- IBM ds4700 兩塊硬碟掉線資料恢復過程IBM硬碟資料恢復
- raid5磁碟陣列2塊硬碟離線資料恢復過程AI陣列硬碟資料恢復
- 伺服器資料恢復,raid5兩塊硬碟掉線資料恢復案例伺服器資料恢復AI硬碟
- 伺服器硬碟意外離線的資料恢復過程伺服器硬碟資料恢復
- IBM伺服器硬碟離線資料恢復方法IBM伺服器硬碟資料恢復
- 【伺服器資料恢復】raid5硬碟離線的資料恢復案例伺服器資料恢復AI硬碟
- 【伺服器raid資料恢復】RAID5兩塊盤離線的資料恢復案例伺服器AI資料恢復
- 別太相信陣列的安全性:兩塊硬碟離線資料恢復過程陣列硬碟資料恢復
- 【北亞資料恢復】IBM3650伺服器raid5故障硬碟離線的資料恢復案例資料恢復IBM伺服器AI硬碟
- 【伺服器資料恢復】昆騰儲存raid5多塊硬碟離線的資料恢復案例伺服器資料恢復AI硬碟
- 資料恢復經典案例分析-raid兩塊硬碟離線恢復資料恢復AI硬碟
- raid5陣列兩塊硬碟出現物理故障的資料恢復過程AI陣列硬碟資料恢復
- 【伺服器資料恢復】Dell伺服器raid5磁碟陣列多塊硬碟離線的資料恢復案例伺服器資料恢復AI陣列硬碟
- raid5硬碟故障資料恢復過程AI硬碟資料恢復
- 【伺服器資料恢復】HP StorageWorks系列儲存RAID5兩塊盤離線的資料恢復伺服器資料恢復AI
- 【伺服器資料恢復】Raid5陣列兩塊硬碟亮黃燈掉線的資料恢復案例伺服器資料恢復AI陣列硬碟
- 伺服器資料恢復—EVA儲存raid5硬碟離線的資料恢復案例伺服器資料恢復AI硬碟
- 【北亞資料恢復】IBM FlashSystem儲存raid5多硬碟離線的資料恢復案例資料恢復IBMAI硬碟
- 【伺服器資料恢復】Raid5熱備盤上線同步時另一塊硬碟離線的資料恢復案例伺服器資料恢復AI硬碟
- raid5兩塊硬碟離線lvm下vxfs檔案系統恢復資料方案AI硬碟LVM
- 伺服器raid5先後兩塊盤掉線的恢復過程伺服器AI
- 【伺服器資料恢復】raid5強制上線離線硬碟失敗的資料恢復案例伺服器資料恢復AI硬碟
- 【伺服器資料恢復】raid5離線硬碟重新上線同步資料失敗的資料恢復案例伺服器資料恢復AI硬碟
- 【伺服器資料恢復】離線硬碟強制上線導致RAID5崩潰的資料恢復伺服器資料恢復硬碟AI
- 【北亞伺服器資料恢復】Raid5熱備盤同步資料過程中硬碟離線導致同步失敗的資料恢復伺服器資料恢復AI硬碟
- 【伺服器資料恢復】農科院某研究所DELL伺服器raid5兩塊硬碟掉線的資料恢復伺服器資料恢復AI硬碟
- 【伺服器資料恢復】伺服器raid5陣列2塊硬碟掉線的資料恢復案例伺服器資料恢復AI陣列硬碟
- 【伺服器資料恢復】HP EVA儲存多塊硬碟離線的資料恢復案例伺服器資料恢復硬碟
- 【伺服器資料恢復】raid5硬碟離線導致EVA儲存崩潰資料恢復案例伺服器資料恢復AI硬碟
- 【北亞資料恢復】DELL POWEREDGE 2850伺服器RAID5兩塊硬碟掉線後系統癱瘓的資料恢復資料恢復伺服器AI硬碟
- 案例講解伺服器硬碟離線資料恢復方法-資料恢復伺服器硬碟資料恢復
- 【伺服器資料恢復】raid5硬碟離線後熱備盤未啟用的資料恢復案例伺服器資料恢復AI硬碟
- raid5硬碟掉線,重建raid並同步資料後恢復資料過程AI硬碟
- 【伺服器資料恢復】RAID6多塊硬碟離線崩潰的資料恢復案例伺服器資料恢復AI硬碟
- 【伺服器資料恢復】IBM儲存伺服器硬碟壞道離線、oracle資料庫損壞的資料恢復伺服器資料恢復IBM硬碟Oracle資料庫
- 【北亞資料恢復】IBM伺服器raid5硬碟離線,熱備盤未啟用導致raid崩潰的資料恢復案例資料恢復IBM伺服器AI硬碟