用mdadm建立raid10

space6212發表於2019-04-07

raid0 + raid1的也稱raid10,它提供了足夠的資料安全和效能,是一般企業最常用的raid級別。
今天我們討論如何用mdadm建立軟raid10.

本次實驗的測試環境是: vmware + linux as4


1、首先在vmware新增四個虛擬SCSI硬碟,作為實驗所用硬碟
略過。

2、為四個虛擬硬碟分割槽
略過

3、建立raid
建立raid10的順序是:先建立2個raid0,再把2個raid0配置成一個raid1.
--建立第一個raid0
[root@primary ~]# mdadm --create /dev/md0 --level=raid0 --chunk=8 --raid-devices=2 /dev/sdb1 /dev/sdc1
mdadm: array /dev/md0 started.
--建立第二個raid0
[root@primary ~]# mdadm --create /dev/md1 --level=raid0 --chunk=8 --raid-devices=2 /dev/sdd1 /dev/sde1
mdadm: array /dev/md1 started.
--利用上面的兩個raid0建立raid1
[root@primary ~]# mdadm --create /dev/md2 --level=raid1 --chunk=8 --raid-devices=2 /dev/md0 /dev/md1
mdadm: array /dev/md2 started.

4、格式話raid裝置
注意:對於raid裝置,只需要格式化最頂層的裝置,不管該raid包含了多少層。
在本例中,md2是最頂層的裝置,因此我們要把它格式化了就可以了。
[root@primary ~]# mkfs.ext3 /dev/md2
mke2fs 1.35 (28-Feb-2004)
max_blocks 213581824, rsv_groups = 26072, rsv_gdb = 256
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
52208 inodes, 208576 blocks
10428 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=67371008
26 block groups
8192 blocks per group, 8192 fragments per group
2008 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729, 204801

Writing inode tables: done
inode.i_blocks = 3586, i_size = 67383296
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 21 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.


5、檢視當前raid資訊
[root@primary opt]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md2 : active raid1 md1[1] md0[0]
208576 blocks [2/2] [UU]

md1 : active raid0 sde1[1] sdd1[0]
208640 blocks 8k chunks

md0 : active raid0 sdc1[1] sdb1[0]
208640 blocks 8k chunks

unused devices:

6、掛載raid裝置
[root@primary ~]# mount /dev/md2 /opt
[root@primary ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 8.4G 5.8G 2.2G 73% /
/dev/sda1 99M 8.4M 86M 9% /boot
none 252M 0 252M 0% /dev/shm
/dev/md2 198M 5.8M 182M 4% /opt


7、配置/etc/mdadm.conf
首先得出raid的資訊:
[root@primary opt]# mdadm -Ds
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=97e0cb8d:3613c0eb:6d2b2a87:be1c8030
devices=/dev/md0,/dev/md1
ARRAY /dev/md1 level=raid0 num-devices=2 UUID=634ab4f9:92d40a05:3b6d00ca:d28a2683
devices=/dev/sdd1,/dev/sde1
ARRAY /dev/md0 level=raid0 num-devices=2 UUID=fe4f0d31:32580633:45d6f507:d0b7d41a
devices=/dev/sdb1,/dev/sdc1

然後編輯/etc/mdadm.conf,新增如下內容:
[root@primary opt]# vi /etc/mdadm.conf

ARRAY /dev/md2 level=raid1 num-devices=2 UUID=97e0cb8d:3613c0eb:6d2b2a87:be1c8030
device /dev/md0 /dev/md1
ARRAY /dev/md1 level=raid0 num-devices=2 UUID=634ab4f9:92d40a05:3b6d00ca:d28a2683
device /dev/sdd1 /dev/sde1
ARRAY /dev/md0 level=raid0 num-devices=2 UUID=fe4f0d31:32580633:45d6f507:d0b7d41a
device /dev/sdb1 /dev/sdc1

8、設定開機自動掛載
為了讓系統開機後能自動掛載raid裝置,需要在/etc/fstab新增如下行:
vi /etc/fstab
/dev/md2 /opt ext3 defaults 0 0

至此,raid10配置完畢。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/231499/viewspace-63837/,如需轉載,請註明出處,否則將追究法律責任。

相關文章