一、RAID的介紹
RAID簡稱廉價磁碟冗餘陣列 (Redundant Arrays of Inexpensive Disks) 或獨立磁碟冗餘陣列(RAID,redundant array of independent disks)是把相同的資料儲存在多個硬碟的不同的地方的方法。透過把資料放在多個硬碟上,輸入輸出操作能以平衡的方式交疊,改良效能。因為多個硬碟增加了平均故障間隔時間(MTBF),儲存冗餘資料也增加了容錯。
利用虛擬化技術把多個硬碟組合起來,成為一個或多個硬碟陣列組目的是為了提升效能或者減少冗餘。
1、RAID儲存方式
分塊:將一個分割槽分成多個大小相等的、地址相鄰的塊,它是組成條帶的元素。
條帶:同一磁碟陣列中的多個磁碟驅動器上的相同“位置”(或者說相同編號)的分塊。
2、RAID邏輯卷
我們常常將一塊硬碟分成兩個C盤
和D盤
(windows系統),這裡的C盤
和D盤
就是邏輯卷,此處反過來,將多塊硬碟虛擬成一塊邏輯盤。
二、RAID的分類
1、RAID 0
RAID 0 是一種簡單的、無資料校驗的資料條帶化技術。沒有容錯設計的條帶硬碟陣列,以條帶形式將RAID組的資料均勻分佈在各個硬碟中。
優點:追求最大容量(將多個物理硬碟虛擬成一個邏輯磁碟)、讀寫速度、實現成本低、100%的高儲存空間利用率。
缺點:RAID 0沒有提供冗餘或錯誤修復能力。
適用場景: RAID0 一般適用於對效能要求嚴格但對資料安全性和可靠性不高的應用,如影片、音訊儲存、臨時資料快取空間等。
2、RAID 1
RAID 1又稱磁碟映象
,資料同時一致寫到主硬碟和映象硬碟。所以磁碟利用率只有50%。只要系統中任何一對映象盤中至少有一塊磁碟可以使用,甚至可以在一半數量的硬碟出現問題時系統都可以正常執行,當一塊硬碟失效時,系統會忽略該硬碟,轉而使用剩餘的映象盤讀寫資料,具備很好的磁碟冗餘能力。
優點:追求最大安全性。
缺點:磁碟利用率低,成本高。
適用場景:RAID1 應用於對順序讀寫效能要求高以及對資料保護極為重視的應用,如對郵件系統的資料保護。
3、RAID 2
RAID 2稱為糾錯海明碼磁碟陣列
,其設計思想是利用海明碼實現資料校驗冗餘。 RAID 2的資料寬度越大,儲存空間利用率越高,但同時需要的磁碟數量也越多。
優點:資料安全性高,資料傳輸效能相當高,設計複雜度低於RAID 3、RAID 4、RAID 5。
缺點:資料冗餘開銷大,資料輸出效能受陣列中最慢磁碟驅動器的限制。資料重建非常耗時。(很少應用)
4、RAID 3
帶有校驗的並行資料傳輸陣列,資料條帶化分佈在資料盤中,同時使用專用校驗硬碟存放校驗資料。
注意:有效容量 RAID 3=(N-1)* 單塊硬碟大小,其中N為硬碟總數量。
優點:磁碟陣列的儲存空間利用率高。
缺點:RAID 3出現壞盤時效能大幅下降
適用場景:適用大容量資料的順序訪問應用,如影像處理、流媒體服務等。
5、RAID 4
RAID 4 與 RAID 3 的原理大致相同,區別在於條帶化的方式不同。 RAID 4按照 塊的方式來組織資料,寫操作只涉及當前資料盤和校驗盤兩個盤,多個 I/O 請求可以同時得到處理,提高了系統效能。 RAID 4 按塊儲存可以保證單塊的完整性,可以避免受到其他磁碟上同條帶產生的不利影響。
RAID 4 在不同磁碟上的同級資料塊同樣使用 XOR 校驗,結果儲存在校驗盤中。寫入資料時, RAID 4 按這種方式把各磁碟上的同級資料的校驗值寫入校驗 盤,讀取時進行即時校驗。因此,當某塊磁碟的資料塊損壞, RAID4 可以透過校驗值以及其他磁碟上的同級資料塊進行資料重建。
優點:提供了 非常好的讀效能
缺點:單一的校驗盤往往成為系統效能的瓶頸。寫效能比較差。(RAID 4 在實際應用中很少見,主流儲存產品也很少使用 RAID 4 保護。)
6、RAID 5
與RAID 3
機制類似,但校驗資料均勻分佈在各資料硬碟上,RAID成員硬碟上同時儲存資料和校驗資訊,資料塊和對應的校驗資訊儲存在不同硬碟上。RAID 5是最常用的RAID方式之一
RAID5的讀出效率很高,寫入效率一般,塊式的集體訪問效率不錯。因為奇偶校驗碼在不同的磁碟上,所以提高了可靠性。但是它對資料傳輸的並行性解決不好,而且控制器的設計也相當困難。
注意:有效容量 RAID 5=(N-1)*單塊盤大小,其中N為硬碟總數
組建RAID 5最少3塊盤,允許壞一塊盤
7、RAID 6
RAID 6技術是在RAID 5基礎上,為了進一步加強資料保護而設計的一種RAID方式,實際上是一種擴充套件RAID 5等級。校驗盤分為:橫向校驗盤和斜向校驗盤
優點:快速的讀取效能,更高的容錯能力
缺點:很慢的寫入速度,RAID控制器在設計上更加複雜,成本更高
適用場景:RAID6 很少得到實際應用,主要用於對資料安全等級要求非常高的場合。
8、RAID 10
將映象和條帶進行兩級組合的RAID級別,第一級是RAID 1,第二級為RAID 0
RAID 10也是一種應用廣泛的RAID級別,磁碟利用率50%
優點:同時擁有RAID 0的超凡速度和RAID 1的資料高可靠性
缺點:CPU佔用率高,而且磁碟的利用率比較低,這種新結構的可擴充性不好
,成本高
三、RAID比較
RAID 等級 | RAID0 | RAID1 | RAID3 | RAID5 | RAID6 | RAID10 |
---|---|---|---|---|---|---|
別名 | 條帶 | 映象 | 專用奇偶校驗條帶 | 分佈奇偶校驗條帶 | 雙重奇偶校驗條帶 | 映象加條帶 |
容錯性 | 無 | 有 | 有 | 有 | 有 | 有 |
冗餘型別 | 無 | 有 | 有 | 有 | 有 | 有 |
熱備份選擇 | 無 | 有 | 有 | 有 | 有 | 有 |
讀效能 | 高 | 低 | 高 | 高 | 高 | 高 |
隨機寫效能 | 高 | 低 | 低 | 一般 | 低 | 一般 |
連續寫效能 | 高 | 低 | 低 | 低 | 低 | 一般 |
需要磁碟數 | n≥1 | 2n (n≥1) | n≥3 | n≥3 | n≥4 | 2n(n≥2)≥4 |
可用容量 | 全部 | 50% | (n-1)/n | (n-1)/n | (n-2)/n | 50% |
四、部署磁碟陣列
先移除全部新加的盤,再新新增4個盤
mdadm命令的常用引數以及作用
引數 | 作用 |
---|---|
-a | 通知mdadm是否建立裝置檔案,並分配一個未使用的次裝置號 |
-n | 指定裝置數量 |
-l | 指定RAID級別 |
-C | 建立 |
-v | 顯示過程 |
-f | 模擬裝置損壞 |
-r | 移除裝置 |
-Q | 檢視摘要資訊 |
-D | 檢視詳細資訊 |
-S | 停止RAID磁碟陣列 |
-x | 備份盤數量 |
lsblk
檢視新添的硬碟是否新增成功
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 1G 0 part /boot
└─sda2 8:2 0 19G 0 part
├─centos-root 253:0 0 17G 0 lvm /
└─centos-swap 253:1 0 2G 0 lvm [SWAP]
sdb 8:16 0 20G 0 disk
sdc 8:32 0 20G 0 disk
sdd 8:48 0 20G 0 disk
sde 8:64 0 20G 0 disk
sr0 11:0 1 4.4G 0 rom
[root@localhost ~]# yum -y install mdadm
[root@localhost ~]# mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
把製作好的RAID磁碟陣列格式化為ext4格式
[root@localhost ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
檔案系統標籤=
OS type: Linux
塊大小=4096 (log=2)
分塊大小=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477056 blocks
523852 blocks (5.00%) reserved for the super user
第一個資料塊=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Allocating group tables: 完成
正在寫入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成
建立掛載點然後把硬碟裝置進行掛載操作
[root@localhost ~]# mkdir /mnt/RAID
[root@localhost ~]# mount /dev/md0 /mnt/RAID
[root@localhost ~]# df -h
檔案系統 容量 已用 可用 已用% 掛載點
devtmpfs 1.9G 0 1.9G 0% /dev
tmpfs 1.9G 0 1.9G 0% /dev/shm
tmpfs 1.9G 12M 1.9G 1% /run
tmpfs 1.9G 0 1.9G 0% /sys/fs/cgroup
/dev/mapper/centos-root 17G 2.0G 16G 12% /
/dev/sda1 1014M 151M 864M 15% /boot
tmpfs 378M 0 378M 0% /run/user/0
/dev/md0 40G 49M 38G 1% /mnt/RAID
檢視/dev/md0磁碟陣列的詳細資訊,並把掛載資訊寫入到配置檔案中,使其永久生效。
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Dec 24 14:40:25 2023
Raid Level : raid10
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Dec 24 15:19:22 2023
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : localhost:0 (local to host localhost)
UUID : dfea21e4:7f4a5550:44379f9b:5b332b40
Events : 18
Number Major Minor RaidDevice State
0 8 16 0 active sync set-A /dev/sdb
1 8 32 1 active sync set-B /dev/sdc
2 8 48 2 active sync set-A /dev/sdd
3 8 64 3 active sync set-B /dev/sde
開機自動掛載
[root@localhost ~]# echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab
[root@localhost ~]# reboot
[root@localhost ~]# dd < /dev/zero > file bs=256M count=4
記錄了4+0 的讀入
記錄了4+0 的寫出
1073741824位元組(1.1 GB)已複製,3.80257 秒,282 MB/秒
五、損壞磁碟陣列及修復
在確認有一塊物理硬碟裝置出現損壞而不能繼續正常使用後,應該使用mdadm命令將其移除,然後檢視RAID磁碟陣列的狀態,可以發現狀態已經改變。
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Dec 24 14:40:25 2023
Raid Level : raid10
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Dec 24 15:37:11 2023
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : localhost:0 (local to host localhost)
UUID : dfea21e4:7f4a5550:44379f9b:5b332b40
Events : 20
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 32 1 active sync set-B /dev/sdc
2 8 48 2 active sync set-A /dev/sdd
3 8 64 3 active sync set-B /dev/sde
0 8 16 - faulty /dev/sdb
在RAID 10級別的磁碟陣列中,當RAID 1磁碟陣列中存在一個故障盤時並不影響RAID 10磁碟陣列的使用。當購買了新的硬碟裝置後再使用mdadm命令來予以替換即可,在此期間我們可以在/RAID目錄中正常地建立或刪除檔案。由於我們是在虛擬機器中模擬硬碟,所以先重啟系統,然後再把新的硬碟新增到RAID磁碟陣列中。
先熱移除sdb
再新增sdb
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdb
mdadm: hot removed /dev/sdb from /dev/md0
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdb
mdadm: added /dev/sdb
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Dec 24 14:40:25 2023
Raid Level : raid10
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Dec 24 15:44:50 2023
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 26% complete
Name : localhost:0 (local to host localhost)
UUID : dfea21e4:7f4a5550:44379f9b:5b332b40
Events : 27
Number Major Minor RaidDevice State
4 8 16 0 spare rebuilding /dev/sdb
1 8 32 1 active sync set-B /dev/sdc
2 8 48 2 active sync set-A /dev/sdd
3 8 64 3 active sync set-B /dev/sde
[root@localhost ~]# echo "/dev/md0 /mnt/RAID ext4 defaults 0 0" >> /etc/fstab
[root@localhost ~]# mount /dev/md0 /mnt/RAID
#檢視是否修復成功
[root@localhost ~]# df -h
檔案系統 容量 已用 可用 已用% 掛載點
devtmpfs 1.9G 0 1.9G 0% /dev
tmpfs 1.9G 0 1.9G 0% /dev/shm
tmpfs 1.9G 12M 1.9G 1% /run
tmpfs 1.9G 0 1.9G 0% /sys/fs/cgroup
/dev/mapper/centos-root 17G 3.0G 15G 18% /
/dev/md0 40G 49M 38G 1% /RAID
/dev/sda1 1014M 151M 864M 15% /boot
tmpfs 378M 0 378M 0% /run/user/0
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 1G 0 part /boot
└─sda2 8:2 0 19G 0 part
├─centos-root 253:0 0 17G 0 lvm /
└─centos-swap 253:1 0 2G 0 lvm [SWAP]
sdb 8:16 0 20G 0 disk
└─md0 9:0 0 40G 0 raid10 /mnt/RAID
sdc 8:32 0 20G 0 disk
└─md0 9:0 0 40G 0 raid10 /mnt/RAID
sdd 8:48 0 20G 0 disk
└─md0 9:0 0 40G 0 raid10 /mnt/RAID
sde 8:64 0 20G 0 disk
└─md0 9:0 0 40G 0 raid10 /mnt/RAID
sr0 11:0 1 4.4G 0 rom
取消掛載
關閉RAID陣列
[root@localhost ~]# mdadm -S /dev/md0
#必須清除成員磁碟當中陣列的超級塊資訊,這一步很重要!否則開機會重新做RAID
# 若顯示如下資訊
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?
解決方案:
fuser -vm /dev/md0
使用者 程式號 許可權 命令
/dev/md0: root kernel mount /mnt/RAID
root 1335 ..c.. zsh
kill -9 1335
df -h
/dev/md0 40G 1.1G 37G 3% /mnt/RAID
umount /dev/md0
[root@localhost ~]# mdadm --zero-superblock /dev/sd[b-e]
#取消開機自動掛載,幹掉那一行
[root@localhost ~]# vim /etc/fstab
刪除有md0那一行(很重要,沒有這個磁碟或者目錄,無法正常開機)
擴充套件
LINUX下徹底關閉某個RAID磁碟陣列
1、檢視RAID磁碟陣列資訊,確認要關閉哪個。(比如[raid10])
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid10]
md0 : active raid10 sdb[4] sdc[1] sde[3] sdd[2]
41908224 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
unused devices: <none>
2、解除安裝md0這個陣列的掛載點:
[root@localhost ~]# umount /RAID
3、停止md0這個陣列,並釋放與該陣列相關的所有資源:
[root@localhost ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0
注意:如果在停止md0的陣列前,卻沒有把它解除安裝(umount)掉,會出現如下提示:
[root@localhost ~]# mdadm -S /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?
4、清除成員磁碟當中陣列的超級塊資訊,這一步很重要!
[root@localhost ~]# mdadm --zero-superblock /dev/sd[b-e]
5、刪除或註釋/etc/fstab上的掛載資訊
vim /etc/fstab
6、刪除或註釋/etc/mdadm.conf對應的RAID資訊:
vim /etc/mdadm.conf
7、如果做完上面所有的操作後,發現/dev/下還有md0這個裝置檔案存在,直接rm -f /dev/md0即可
rm -rf /dev/md0
六、磁碟陣列+備份盤
注意:還原快照先
部署RAID 5磁碟陣列時,需要用到4塊硬碟。現在建立一個RAID 5磁碟陣列+備份盤。
[root@localhost ~]# mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
#引數-n 3代表建立這個RAID 5磁碟陣列所需的硬碟數,引數-l 5代表RAID的級別,而引數-x 1則代表有一塊備份盤。當檢視/dev/md0(即RAID 5磁碟陣列的名稱)磁碟陣列的時候就能看到有一塊備份盤在等待中了。
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Dec 24 16:46:45 2023
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Dec 24 16:48:31 2023
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : localhost:0 (local to host localhost)
UUID : ef77d022:cb8db5f6:6d692ea0:a84f7525
Events : 18
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
4 8 48 2 active sync /dev/sdd
3 8 64 - spare /dev/sde
將部署好的RAID 5磁碟陣列格式化為ext4檔案,然後掛載到目錄上,之後就可以使用了。
[root@localhost ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
檔案系統標籤=
OS type: Linux
塊大小=4096 (log=2)
分塊大小=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477056 blocks
523852 blocks (5.00%) reserved for the super user
第一個資料塊=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Allocating group tables: 完成
正在寫入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成
[root@localhost ~]# echo "/dev/md0 /mnt/RAID ext4 defaults 0 0" >> /etc/fstab
[root@localhost ~]# mkdir /mnt/RAID
[root@localhost ~]# mount /dev/md0 /mnt/RAID
[root@localhost ~]# df -h
檔案系統 容量 已用 可用 已用% 掛載點
devtmpfs 1.9G 0 1.9G 0% /dev
tmpfs 1.9G 0 1.9G 0% /dev/shm
tmpfs 1.9G 12M 1.9G 1% /run
tmpfs 1.9G 0 1.9G 0% /sys/fs/cgroup
/dev/mapper/centos-root 17G 2.0G 16G 12% /
/dev/sda1 1014M 151M 864M 15% /boot
tmpfs 378M 0 378M 0% /run/user/0
/dev/md0 40G 49M 38G 1% /mnt/RAID
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 1G 0 part /boot
└─sda2 8:2 0 19G 0 part
├─centos-root 253:0 0 17G 0 lvm /
└─centos-swap 253:1 0 2G 0 lvm [SWAP]
sdb 8:16 0 20G 0 disk
└─md0 9:0 0 40G 0 raid5 /mnt/RAID
sdc 8:32 0 20G 0 disk
└─md0 9:0 0 40G 0 raid5 /mnt/RAID
sdd 8:48 0 20G 0 disk
└─md0 9:0 0 40G 0 raid5 /mnt/RAID
sde 8:64 0 20G 0 disk
└─md0 9:0 0 40G 0 raid5 /mnt/RAID
sr0 11:0 1 4.4G 0 rom
把硬碟裝置/dev/sdb移出磁碟陣列,然後迅速檢視/dev/md0磁碟陣列的狀態
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Dec 24 16:46:45 2023
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Dec 24 18:28:52 2023
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 10% complete
Name : localhost:0 (local to host localhost)
UUID : ef77d022:cb8db5f6:6d692ea0:a84f7525
Events : 23
Number Major Minor RaidDevice State
3 8 64 0 spare rebuilding /dev/sde
1 8 32 1 active sync /dev/sdc
4 8 48 2 active sync /dev/sdd
0 8 16 - faulty /dev/sdb