RAID磁碟陣列

misakivv發表於2023-12-24

一、RAID的介紹

RAID簡稱廉價磁碟冗餘陣列 (Redundant Arrays of Inexpensive Disks) 或獨立磁碟冗餘陣列(RAID,redundant array of independent disks)是把相同的資料儲存在多個硬碟的不同的地方的方法。透過把資料放在多個硬碟上,輸入輸出操作能以平衡的方式交疊,改良效能。因為多個硬碟增加了平均故障間隔時間MTBF),儲存冗餘資料也增加了容錯。

​ 利用虛擬化技術把多個硬碟組合起來,成為一個或多個硬碟陣列組目的是為了提升效能或者減少冗餘。

1、RAID儲存方式

分塊:將一個分割槽分成多個大小相等的、地址相鄰的塊,它是組成條帶的元素。

條帶:同一磁碟陣列中的多個磁碟驅動器上的相同“位置”(或者說相同編號)的分塊。

2、RAID邏輯卷

​ 我們常常將一塊硬碟分成兩個C盤D盤(windows系統),這裡的C盤D盤就是邏輯卷,此處反過來,將多塊硬碟虛擬成一塊邏輯盤。

image-20231224101714341

二、RAID的分類

1、RAID 0

RAID 0 是一種簡單的、無資料校驗的資料條帶化技術。沒有容錯設計的條帶硬碟陣列,以條帶形式將RAID組的資料均勻分佈在各個硬碟中。

優點:追求最大容量(將多個物理硬碟虛擬成一個邏輯磁碟)、讀寫速度、實現成本低、100%的高儲存空間利用率。

缺點:RAID 0沒有提供冗餘或錯誤修復能力。

適用場景: RAID0 一般適用於對效能要求嚴格但對資料安全性和可靠性不高的應用,如影片、音訊儲存、臨時資料快取空間等。

image-20231224101806814

2、RAID 1

RAID 1又稱磁碟映象,資料同時一致寫到主硬碟和映象硬碟。所以磁碟利用率只有50%。只要系統中任何一對映象盤中至少有一塊磁碟可以使用,甚至可以在一半數量的硬碟出現問題時系統都可以正常執行,當一塊硬碟失效時,系統會忽略該硬碟,轉而使用剩餘的映象盤讀寫資料,具備很好的磁碟冗餘能力。

優點:追求最大安全性。

缺點:磁碟利用率低,成本高。

適用場景:RAID1 應用於對順序讀寫效能要求高以及對資料保護極為重視的應用,如對郵件系統的資料保護。

image-20231224101857466

3、RAID 2

RAID 2稱為糾錯海明碼磁碟陣列,其設計思想是利用海明碼實現資料校驗冗餘。 RAID 2的資料寬度越大,儲存空間利用率越高,但同時需要的磁碟數量也越多。

優點:資料安全性高,資料傳輸效能相當高,設計複雜度低於RAID 3、RAID 4、RAID 5。

缺點:資料冗餘開銷大,資料輸出效能受陣列中最慢磁碟驅動器的限制。資料重建非常耗時。(很少應用)

image-20231224103118658

4、RAID 3

帶有校驗的並行資料傳輸陣列,資料條帶化分佈在資料盤中,同時使用專用校驗硬碟存放校驗資料

注意:有效容量 RAID 3=(N-1)* 單塊硬碟大小,其中N為硬碟總數量。

image-20231224103845870

優點:磁碟陣列的儲存空間利用率高。

缺點:RAID 3出現壞盤時效能大幅下降

適用場景:適用大容量資料的順序訪問應用,如影像處理、流媒體服務等。

5、RAID 4

RAID 4RAID 3 的原理大致相同,區別在於條帶化的方式不同。 RAID 4按照 塊的方式來組織資料,寫操作只涉及當前資料盤和校驗盤兩個盤,多個 I/O 請求可以同時得到處理,提高了系統效能。 RAID 4 按塊儲存可以保證單塊的完整性,可以避免受到其他磁碟上同條帶產生的不利影響。

  RAID 4 在不同磁碟上的同級資料塊同樣使用 XOR 校驗,結果儲存在校驗盤中。寫入資料時, RAID 4 按這種方式把各磁碟上的同級資料的校驗值寫入校驗 盤,讀取時進行即時校驗。因此,當某塊磁碟的資料塊損壞, RAID4 可以透過校驗值以及其他磁碟上的同級資料塊進行資料重建。

  優點:提供了 非常好的讀效能

缺點:單一的校驗盤往往成為系統效能的瓶頸。寫效能比較差。(RAID 4 在實際應用中很少見,主流儲存產品也很少使用 RAID 4 保護。)

image-20231224110336003

6、RAID 5

​ 與RAID 3機制類似,但校驗資料均勻分佈在各資料硬碟上RAID成員硬碟上同時儲存資料和校驗資訊,資料塊和對應的校驗資訊儲存在不同硬碟上。RAID 5是最常用的RAID方式之一

​ RAID5的讀出效率很高,寫入效率一般,塊式的集體訪問效率不錯。因為奇偶校驗碼在不同的磁碟上,所以提高了可靠性。但是它對資料傳輸的並行性解決不好,而且控制器的設計也相當困難。

注意有效容量 RAID 5=(N-1)*單塊盤大小,其中N為硬碟總數

組建RAID 5最少3塊盤,允許壞一塊盤

image-20231224110708235

7、RAID 6

RAID 6技術是在RAID 5基礎上,為了進一步加強資料保護而設計的一種RAID方式,實際上是一種擴充套件RAID 5等級。校驗盤分為:橫向校驗盤和斜向校驗盤

優點:快速的讀取效能,更高的容錯能力

缺點:很慢的寫入速度,RAID控制器在設計上更加複雜,成本更高

適用場景:RAID6 很少得到實際應用,主要用於對資料安全等級要求非常高的場合。

image-20231224111534718

8、RAID 10

​ 將映象和條帶進行兩級組合的RAID級別,第一級是RAID 1,第二級為RAID 0

RAID 10也是一種應用廣泛的RAID級別,磁碟利用率50%

優點:同時擁有RAID 0的超凡速度和RAID 1的資料高可靠性

缺點:CPU佔用率高,而且磁碟的利用率比較低,這種新結構的可擴充性不好,成本高

image-20231224113243687

三、RAID比較

RAID 等級 RAID0 RAID1 RAID3 RAID5 RAID6 RAID10
別名 條帶 映象 專用奇偶校驗條帶 分佈奇偶校驗條帶 雙重奇偶校驗條帶 映象加條帶
容錯性
冗餘型別
熱備份選擇
讀效能
隨機寫效能 一般 一般
連續寫效能 一般
需要磁碟數 n≥1 2n (n≥1) n≥3 n≥3 n≥4 2n(n≥2)≥4
可用容量 全部 50% (n-1)/n (n-1)/n (n-2)/n 50%

四、部署磁碟陣列

先移除全部新加的盤,再新新增4個盤

image-20231224114629815

mdadm命令的常用引數以及作用

引數 作用
-a 通知mdadm是否建立裝置檔案,並分配一個未使用的次裝置號
-n 指定裝置數量
-l 指定RAID級別
-C 建立
-v 顯示過程
-f 模擬裝置損壞
-r 移除裝置
-Q 檢視摘要資訊
-D 檢視詳細資訊
-S 停止RAID磁碟陣列
-x 備份盤數量

lsblk檢視新添的硬碟是否新增成功

[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm  /
  └─centos-swap 253:1    0    2G  0 lvm  [SWAP]
sdb               8:16   0   20G  0 disk
sdc               8:32   0   20G  0 disk
sdd               8:48   0   20G  0 disk
sde               8:64   0   20G  0 disk
sr0              11:0    1  4.4G  0 rom

image-20231224144304297

[root@localhost ~]# yum -y install mdadm
[root@localhost ~]# mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

image-20231224144336880

把製作好的RAID磁碟陣列格式化為ext4格式

[root@localhost ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
檔案系統標籤=
OS type: Linux
塊大小=4096 (log=2)
分塊大小=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477056 blocks
523852 blocks (5.00%) reserved for the super user
第一個資料塊=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624

Allocating group tables: 完成
正在寫入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成

image-20231224144812275

建立掛載點然後把硬碟裝置進行掛載操作

[root@localhost ~]# mkdir /mnt/RAID
[root@localhost ~]# mount /dev/md0 /mnt/RAID
[root@localhost ~]# df -h
檔案系統                 容量  已用  可用 已用% 掛載點
devtmpfs                 1.9G     0  1.9G    0% /dev
tmpfs                    1.9G     0  1.9G    0% /dev/shm
tmpfs                    1.9G   12M  1.9G    1% /run
tmpfs                    1.9G     0  1.9G    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  2.0G   16G   12% /
/dev/sda1               1014M  151M  864M   15% /boot
tmpfs                    378M     0  378M    0% /run/user/0
/dev/md0                  40G   49M   38G    1% /mnt/RAID

image-20231224152039734

檢視/dev/md0磁碟陣列的詳細資訊,並把掛載資訊寫入到配置檔案中,使其永久生效。

[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Dec 24 14:40:25 2023
        Raid Level : raid10
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sun Dec 24 15:19:22 2023
             State : active
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost:0  (local to host localhost)
              UUID : dfea21e4:7f4a5550:44379f9b:5b332b40
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync set-A   /dev/sdb
       1       8       32        1      active sync set-B   /dev/sdc
       2       8       48        2      active sync set-A   /dev/sdd
       3       8       64        3      active sync set-B   /dev/sde

開機自動掛載

[root@localhost ~]# echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab
[root@localhost ~]# reboot

image-20231224152739897

[root@localhost ~]# dd < /dev/zero > file bs=256M count=4
記錄了4+0 的讀入
記錄了4+0 的寫出
1073741824位元組(1.1 GB)已複製,3.80257 秒,282 MB/秒

五、損壞磁碟陣列及修復

在確認有一塊物理硬碟裝置出現損壞而不能繼續正常使用後,應該使用mdadm命令將其移除,然後檢視RAID磁碟陣列的狀態,可以發現狀態已經改變。

[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Dec 24 14:40:25 2023
        Raid Level : raid10
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sun Dec 24 15:37:11 2023
             State : clean, degraded
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 1
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost:0  (local to host localhost)
              UUID : dfea21e4:7f4a5550:44379f9b:5b332b40
            Events : 20

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       32        1      active sync set-B   /dev/sdc
       2       8       48        2      active sync set-A   /dev/sdd
       3       8       64        3      active sync set-B   /dev/sde

       0       8       16        -      faulty   /dev/sdb

image-20231224153856547

在RAID 10級別的磁碟陣列中,當RAID 1磁碟陣列中存在一個故障盤時並不影響RAID 10磁碟陣列的使用。當購買了新的硬碟裝置後再使用mdadm命令來予以替換即可,在此期間我們可以在/RAID目錄中正常地建立或刪除檔案。由於我們是在虛擬機器中模擬硬碟,所以先重啟系統,然後再把新的硬碟新增到RAID磁碟陣列中。

先熱移除sdb

再新增sdb

[root@localhost ~]# mdadm /dev/md0 -r /dev/sdb
mdadm: hot removed /dev/sdb from /dev/md0
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdb
mdadm: added /dev/sdb
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Dec 24 14:40:25 2023
        Raid Level : raid10
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sun Dec 24 15:44:50 2023
             State : clean, degraded, recovering
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 26% complete

              Name : localhost:0  (local to host localhost)
              UUID : dfea21e4:7f4a5550:44379f9b:5b332b40
            Events : 27

    Number   Major   Minor   RaidDevice State
       4       8       16        0      spare rebuilding   /dev/sdb
       1       8       32        1      active sync set-B   /dev/sdc
       2       8       48        2      active sync set-A   /dev/sdd
       3       8       64        3      active sync set-B   /dev/sde

image-20231224154515705

[root@localhost ~]# echo "/dev/md0    /mnt/RAID    ext4    defaults    0    0" >> /etc/fstab
[root@localhost ~]# mount /dev/md0 /mnt/RAID

#檢視是否修復成功
[root@localhost ~]# df -h
檔案系統                 容量  已用  可用 已用% 掛載點
devtmpfs                 1.9G     0  1.9G    0% /dev
tmpfs                    1.9G     0  1.9G    0% /dev/shm
tmpfs                    1.9G   12M  1.9G    1% /run
tmpfs                    1.9G     0  1.9G    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  3.0G   15G   18% /
/dev/md0                  40G   49M   38G    1% /RAID
/dev/sda1               1014M  151M  864M   15% /boot
tmpfs                    378M     0  378M    0% /run/user/0
[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE   MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part   /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm    /
  └─centos-swap 253:1    0    2G  0 lvm    [SWAP]
sdb               8:16   0   20G  0 disk
└─md0             9:0    0   40G  0 raid10 /mnt/RAID
sdc               8:32   0   20G  0 disk
└─md0             9:0    0   40G  0 raid10 /mnt/RAID
sdd               8:48   0   20G  0 disk
└─md0             9:0    0   40G  0 raid10 /mnt/RAID
sde               8:64   0   20G  0 disk
└─md0             9:0    0   40G  0 raid10 /mnt/RAID
sr0              11:0    1  4.4G  0 rom

取消掛載

關閉RAID陣列

[root@localhost ~]# mdadm -S /dev/md0
#必須清除成員磁碟當中陣列的超級塊資訊,這一步很重要!否則開機會重新做RAID


# 若顯示如下資訊
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?

解決方案:
fuser -vm /dev/md0
                     使用者     程式號 許可權   命令
/dev/md0:            root     kernel mount /mnt/RAID
                     root       1335 ..c.. zsh
kill -9 1335
df -h 
/dev/md0                  40G  1.1G   37G    3% /mnt/RAID
 umount /dev/md0
 
 
[root@localhost ~]# mdadm --zero-superblock /dev/sd[b-e]
#取消開機自動掛載,幹掉那一行
[root@localhost ~]# vim /etc/fstab 
刪除有md0那一行(很重要,沒有這個磁碟或者目錄,無法正常開機)
 

擴充套件

LINUX下徹底關閉某個RAID磁碟陣列

1、檢視RAID磁碟陣列資訊,確認要關閉哪個。(比如[raid10])

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid10]
md0 : active raid10 sdb[4] sdc[1] sde[3] sdd[2]
      41908224 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

unused devices: <none>

image-20231224161133530

2、解除安裝md0這個陣列的掛載點:

[root@localhost ~]# umount /RAID

image-20231224161322180

3、停止md0這個陣列,並釋放與該陣列相關的所有資源:

[root@localhost ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0

image-20231224161438481

注意:如果在停止md0的陣列前,卻沒有把它解除安裝(umount)掉,會出現如下提示:

[root@localhost ~]# mdadm -S /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?

image-20231224161558970

4、清除成員磁碟當中陣列的超級塊資訊,這一步很重要!

[root@localhost ~]# mdadm --zero-superblock /dev/sd[b-e]

image-20231224161734775

5、刪除或註釋/etc/fstab上的掛載資訊

vim /etc/fstab

image-20231224162245734

6、刪除或註釋/etc/mdadm.conf對應的RAID資訊:

vim /etc/mdadm.conf

7、如果做完上面所有的操作後,發現/dev/下還有md0這個裝置檔案存在,直接rm -f /dev/md0即可

rm -rf /dev/md0

六、磁碟陣列+備份盤

注意:還原快照先

部署RAID 5磁碟陣列時,需要用到4塊硬碟。現在建立一個RAID 5磁碟陣列+備份盤。

image-20231224164211358

[root@localhost ~]# mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

#引數-n 3代表建立這個RAID 5磁碟陣列所需的硬碟數,引數-l 5代表RAID的級別,而引數-x 1則代表有一塊備份盤。當檢視/dev/md0(即RAID 5磁碟陣列的名稱)磁碟陣列的時候就能看到有一塊備份盤在等待中了。
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Dec 24 16:46:45 2023
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sun Dec 24 16:48:31 2023
             State : clean
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost:0  (local to host localhost)
              UUID : ef77d022:cb8db5f6:6d692ea0:a84f7525
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       4       8       48        2      active sync   /dev/sdd

       3       8       64        -      spare   /dev/sde

image-20231224182113853

將部署好的RAID 5磁碟陣列格式化為ext4檔案,然後掛載到目錄上,之後就可以使用了。

[root@localhost ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
檔案系統標籤=
OS type: Linux
塊大小=4096 (log=2)
分塊大小=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477056 blocks
523852 blocks (5.00%) reserved for the super user
第一個資料塊=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624

Allocating group tables: 完成
正在寫入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成

image-20231224182343876

[root@localhost ~]# echo "/dev/md0 /mnt/RAID ext4 defaults 0 0" >> /etc/fstab
[root@localhost ~]# mkdir /mnt/RAID
[root@localhost ~]# mount /dev/md0 /mnt/RAID
[root@localhost ~]# df -h
檔案系統                 容量  已用  可用 已用% 掛載點
devtmpfs                 1.9G     0  1.9G    0% /dev
tmpfs                    1.9G     0  1.9G    0% /dev/shm
tmpfs                    1.9G   12M  1.9G    1% /run
tmpfs                    1.9G     0  1.9G    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  2.0G   16G   12% /
/dev/sda1               1014M  151M  864M   15% /boot
tmpfs                    378M     0  378M    0% /run/user/0
/dev/md0                  40G   49M   38G    1% /mnt/RAID
[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part  /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm   /
  └─centos-swap 253:1    0    2G  0 lvm   [SWAP]
sdb               8:16   0   20G  0 disk
└─md0             9:0    0   40G  0 raid5 /mnt/RAID
sdc               8:32   0   20G  0 disk
└─md0             9:0    0   40G  0 raid5 /mnt/RAID
sdd               8:48   0   20G  0 disk
└─md0             9:0    0   40G  0 raid5 /mnt/RAID
sde               8:64   0   20G  0 disk
└─md0             9:0    0   40G  0 raid5 /mnt/RAID
sr0              11:0    1  4.4G  0 rom

image-20231224182650833

把硬碟裝置/dev/sdb移出磁碟陣列,然後迅速檢視/dev/md0磁碟陣列的狀態

[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Dec 24 16:46:45 2023
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sun Dec 24 18:28:52 2023
             State : clean, degraded, recovering
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 1
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 10% complete

              Name : localhost:0  (local to host localhost)
              UUID : ef77d022:cb8db5f6:6d692ea0:a84f7525
            Events : 23

    Number   Major   Minor   RaidDevice State
       3       8       64        0      spare rebuilding   /dev/sde
       1       8       32        1      active sync   /dev/sdc
       4       8       48        2      active sync   /dev/sdd

       0       8       16        -      faulty   /dev/sdb

image-20231224182914910

相關文章