11gASM磁碟頭大量損壞?
今天突然發現叢集資料庫宕了,發現DATADG沒有mount,果斷手工mount,報錯:mount失敗,磁碟組找不到第51塊盤
select path,name,header_status from v$asm_disk order by path;
發現磁碟頭損毀。
修復如下:
磁碟組頭部備份的位置:
AU SIZE =1M 備份塊 blkn=510
AU SIZE =2M 備份塊 blkn=1022
AU SIZE =4M 備份塊 blkn=2046
AU SIZE =8M 備份塊 blkn=4094
AU SIZE =16M 備份塊 blkn=8190
AU SIZE =32M 備份塊 blkn=16382
AU SIZE =64M 備份塊 blkn=32766
[grid@auditdb3 dev]$ kfed read ora52
kfbh.endian: 0 ; 0x000: 0x00
kfbh.hard: 0 ; 0x001: 0x00
kfbh.type: 0 ; 0x002: KFBTYP_INVALID
kfbh.datfmt: 0 ; 0x003: 0x00
kfbh.block.blk: 0 ; 0x004: blk=0
kfbh.block.obj: 0 ; 0x008: file=0
kfbh.check: 0 ; 0x00c: 0x00000000
kfbh.fcn.base: 0 ; 0x010: 0x00000000
kfbh.fcn.wrap: 0 ; 0x014: 0x00000000
kfbh.spare1: 0 ; 0x018: 0x00000000
[grid@auditdb3 dev]$ kfed repair ora52
兩個節點分別手工mount,成功,叢集服務狀態正常。
由於是新上架的伺服器,重啟shutdown -r now(最好不用reboot)
等等......................
叢集沒起來,檢視日誌,successful discovery of 0 disks,未發現voting disk
嘗試檢視ams例項中磁碟的情況
兩個節點執行如下命令:
新盤不可能出現大量磁碟頭損毀的情況啊。利用udevadm命令比較兩邊識別的磁碟資訊
node1:
比對兩邊的99-oracle-asmdrive.rules檔案發現
node1:
KERNEL=="sddlm*"
node2:
KERNEL=="sddlm*1"
同步兩節點的配置檔案,統一匹配分割槽後的磁碟
重啟伺服器,叢集狀態正常。
select path,name,header_status from v$asm_disk order by path;
發現磁碟頭損毀。
修復如下:
磁碟組頭部備份的位置:
AU SIZE =1M 備份塊 blkn=510
AU SIZE =2M 備份塊 blkn=1022
AU SIZE =4M 備份塊 blkn=2046
AU SIZE =8M 備份塊 blkn=4094
AU SIZE =16M 備份塊 blkn=8190
AU SIZE =32M 備份塊 blkn=16382
AU SIZE =64M 備份塊 blkn=32766
[grid@auditdb3 dev]$ kfed read ora52
kfbh.endian: 0 ; 0x000: 0x00
kfbh.hard: 0 ; 0x001: 0x00
kfbh.type: 0 ; 0x002: KFBTYP_INVALID
kfbh.datfmt: 0 ; 0x003: 0x00
kfbh.block.blk: 0 ; 0x004: blk=0
kfbh.block.obj: 0 ; 0x008: file=0
kfbh.check: 0 ; 0x00c: 0x00000000
kfbh.fcn.base: 0 ; 0x010: 0x00000000
kfbh.fcn.wrap: 0 ; 0x014: 0x00000000
kfbh.spare1: 0 ; 0x018: 0x00000000
[grid@auditdb3 dev]$ kfed repair ora52
兩個節點分別手工mount,成功,叢集服務狀態正常。
由於是新上架的伺服器,重啟shutdown -r now(最好不用reboot)
等等......................
叢集沒起來,檢視日誌,successful discovery of 0 disks,未發現voting disk
嘗試檢視ams例項中磁碟的情況
兩個節點執行如下命令:
crsctl stop has -f繞過crs強制啟動asm
crsctl start crs -excl -nocrs
登陸asm檢視磁碟狀態,發現大量壞盤sqlplus / as sysasmselect name,path,header_status from v$asm_disk order by path;
新盤不可能出現大量磁碟頭損毀的情況啊。利用udevadm命令比較兩邊識別的磁碟資訊
node1:
- udevadm info --query=all --path=/dev/ocr1
-
P: /devices/pci0000:00/0000:00:1f.2/host0/target0:0:0/0:0:0:0/block/sda
-
N: sddmlaa
-
W: 55
-
S: block/8:0
-
S: disk/by-id/ata-WDC_WD5000AAKX-001CA0_WD-WCAYUX405680
-
S: disk/by-id/scsi-SATA_WDC_WD5000AAKX-_WD-WCAYUX405680
-
S: disk/by-path/pci-0000:00:1f.2-scsi-0:0:0:0
- S: disk/by-id/wwn-0x50014ee2b0b0304c
- udevadm info --query=all --path=/dev/ocr1
-
P: /devices/pci0000:00/0000:00:1f.2/host0/target0:0:0/0:0:0:0/block/sda
-
N: sddmlaa
-
W: 55
-
S: block/8:0
-
S: disk/by-id/ata-WDC_WD5000AAKX-001CA0_WD-WCAYUX405680--part1
-
S: disk/by-id/scsi-SATA_WDC_WD5000AAKX-_WD-WCAYUX405680--part1
-
S: disk/by-path/pci-0000:00:1f.2-scsi-0:0:0:0
- S: disk/by-id/wwn-0x50014ee2b0b0304c
比對兩邊的99-oracle-asmdrive.rules檔案發現
node1:
KERNEL=="sddlm*"
node2:
KERNEL=="sddlm*1"
同步兩節點的配置檔案,統一匹配分割槽後的磁碟
重啟伺服器,叢集狀態正常。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29337971/viewspace-1094141/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- RAC磁碟頭損壞問題處理
- ASM磁碟頭資訊損壞和修復(kfed/dd)ASM
- AMDU 從頭部損壞的磁碟中提取檔案
- linux下修復磁碟損壞Linux
- 段頭損壞的處理
- 【LINUX】Oracle資料庫 linux磁碟頭資料損壞修復LinuxOracle資料庫
- Ceph 磁碟損壞現象和解決方法
- Oracle asm磁碟損壞異常恢復OracleASM
- RAC 11G ASM磁碟損壞恢復ASM
- system資料檔案頭損壞修復
- 磁頭損壞的修復方法有哪些
- 磁碟損壞造成RMAN備份檔案有壞塊的恢復案例
- ASM之OCR所在磁碟組損壞後的恢復ASM
- 磁碟損壞,system及部分資料檔案丟失
- RAID10磁碟陣列損壞修復操作AI陣列
- 【BBED】 SYSTEM檔案頭損壞的恢復(4)
- 深入解析:段頭塊損壞bbed異常恢復
- 磁碟損壞導致資料檔案丟失的恢復
- linux RAID10磁碟陣列損壞的修復LinuxAI陣列
- 探索ORACLE之RMAN_07 磁碟損壞資料丟失恢復Oracle
- Oracle REDO損壞Oracle Redo
- 【資料安全】一次驚心動魄的ASM磁碟頭損壞故障處理過程帶來的深思ASM
- Oracle資料庫塊的物理損壞與邏輯損壞Oracle資料庫
- 資料塊損壞ORA-1578(發現損壞塊)
- RAID5的硬碟損壞,會發生什麼?多少塊磁碟損壞會導致RAID5資料丟失AI硬碟
- redo日誌損壞
- index損壞恢復Index
- undo 檔案損壞
- 線上日誌損壞
- 處理塊損壞
- 面對硬碟磁頭損壞問題,資料該如何解救?硬碟
- 伺服器硬碟磁頭損壞,碟片劃傷資料恢復伺服器硬碟資料恢復
- oracle10g rac 表決盤損壞、ocr損壞處理Oracle
- 陣列櫃故障造成控制檔案損壞,資料檔案損壞陣列
- ASM磁碟頭ASM
- 如何查詢損壞塊
- 資料庫損壞解決:資料庫已損壞,無法分配空間資料庫
- 使用dbverify檢測物理損壞