軟raid的建立
1 增加磁碟並分割槽(修改id)
fdisk /dev/sdb
Command (m for help): p
Disk /dev/sdb: 8589 MB, 8589934592 bytes
255 heads, 63 sectors/track, 1044 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 244 1959898+ fd Linux raid autodetect
/dev/sdb2 245 488 1959930 fd Linux raid autodetect
/dev/sdb3 489 732 1959930 fd Linux raid autodetect
/dev/sdb4 733 1044 2506140 fd Linux raid autodetect
2 建立raid
[root@gc1 md01]# which mdadm
/sbin/mdadm
3 檢視raid的狀態(我建立的是/dev/md02)
[root@gc1 md01]# mdadm -D /dev/md02
/dev/md02:
Version : 0.90
Creation Time : Wed Mar 25 14:39:01 2015
Raid Level : raid5
Array Size : 3919616 (3.74 GiB 4.01 GB)
Used Dev Size : 1959808 (1914.20 MiB 2006.84 MB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Wed Mar 25 14:43:35 2015
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
UUID : d812a0b9:f7f9c5eb:4528a047:4b714fc2
Events : 0.2
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 18 1 active sync /dev/sdb2
2 8 19 2 active sync /dev/sdb3
3 8 20 - spare /dev/sdb4
4 格式化並掛載/dev/md02
[root@gc1 md01]# mkfs.ext3 /dev/md02
mke2fs 1.39 (29-May-2006)
Filesystem label=
OS type: Linux
[root@gc1 md01]# mkdir /md02
[root@gc1 md01]# mount /dev/md02 /md02
[root@gc1 md01]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
35G 7.8G 26G 24% /
/dev/sda1 99M 12M 82M 13% /boot
tmpfs 760M 0 760M 0% /dev/shm
/dev/md01 3.7G 72M 3.5G 3% /md01
/dev/md02 3.7G 72M 3.5G 3% /md02
5 模擬故障
[root@gc1 md02]# mdadm -f /dev/md02 -f /dev/sdb2 ----模擬sdb2故障
mdadm: set /dev/sdb2 faulty in /dev/md02
[root@gc1 md02]# mdadm -D /dev/md02
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
3 8 20 1 spare rebuilding /dev/sdb4
2 8 19 2 active sync /dev/sdb3
4 8 18 - faulty spare /dev/sdb2
[root@gc1 md02]# mdadm /dev/md02 -r /dev/sdb2 ---將sdb2剔除
mdadm: hot removed /dev/sdb2
[root@gc1 md02]# mdadm -D /dev/md02
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
3 8 20 1 spare rebuilding /dev/sdb4 ---熱備分割槽補上去了,,開始建立,估計要等一會會
2 8 19 2 active sync /dev/sdb3
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 20 1 active sync /dev/sdb4 ----過一會就變成active狀態了
2 8 19 2 active sync /dev/sdb3
[root@gc1 md02]# ls ---資料依然沒有丟失,raid5檔案是故障前建立的一個
lost+found raid5
補充:
1 向一個已存在的raid中新增分割槽
[root@gc1 md02]# mdadm /dev/md02 -a /dev/sdb5
2我們單純的使用-a命令不是隻是將磁碟新增到了熱備分割槽去了
[root@gc1 md02]# mdadm /dev/md02 -a /dev/sdb2 (sdb2前面已經被我們刪除了)
[root@gc1 md02]# mdadm /dev/md2 -a /dev/sdc1 ---再加一塊
[root@gc1 md02]# mdadm -D /dev/md02
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 20 1 active sync /dev/sdb4
2 8 19 2 active sync /dev/sdb3
3 8 18 - spare /dev/sdb2 ---新增到熱備分割槽了
4 8 33 - spare /dev/sdc1
擴容
[root@gc1 md02]# mdadm -G /dev/md2 -n4 --這樣就把sdc1擴容到raid成員中去了,此處02變成2是因為我不小心重啟集機器了
mdadm: Need to backup 384K of critical section..
[root@gc1 md02]# mdadm -D /dev/md2
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 20 1 active sync /dev/sdb4
2 8 19 2 active sync /dev/sdb3
3 8 33 3 active sync /dev/sdc1
4 8 18 - spare /dev/sdb2
fdisk /dev/sdb
Command (m for help): p
Disk /dev/sdb: 8589 MB, 8589934592 bytes
255 heads, 63 sectors/track, 1044 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 244 1959898+ fd Linux raid autodetect
/dev/sdb2 245 488 1959930 fd Linux raid autodetect
/dev/sdb3 489 732 1959930 fd Linux raid autodetect
/dev/sdb4 733 1044 2506140 fd Linux raid autodetect
2 建立raid
[root@gc1 md01]# which mdadm
/sbin/mdadm
3 檢視raid的狀態(我建立的是/dev/md02)
[root@gc1 md01]# mdadm -D /dev/md02
/dev/md02:
Version : 0.90
Creation Time : Wed Mar 25 14:39:01 2015
Raid Level : raid5
Array Size : 3919616 (3.74 GiB 4.01 GB)
Used Dev Size : 1959808 (1914.20 MiB 2006.84 MB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Wed Mar 25 14:43:35 2015
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
UUID : d812a0b9:f7f9c5eb:4528a047:4b714fc2
Events : 0.2
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 18 1 active sync /dev/sdb2
2 8 19 2 active sync /dev/sdb3
3 8 20 - spare /dev/sdb4
4 格式化並掛載/dev/md02
[root@gc1 md01]# mkfs.ext3 /dev/md02
mke2fs 1.39 (29-May-2006)
Filesystem label=
OS type: Linux
[root@gc1 md01]# mkdir /md02
[root@gc1 md01]# mount /dev/md02 /md02
[root@gc1 md01]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
35G 7.8G 26G 24% /
/dev/sda1 99M 12M 82M 13% /boot
tmpfs 760M 0 760M 0% /dev/shm
/dev/md01 3.7G 72M 3.5G 3% /md01
/dev/md02 3.7G 72M 3.5G 3% /md02
5 模擬故障
[root@gc1 md02]# mdadm -f /dev/md02 -f /dev/sdb2 ----模擬sdb2故障
mdadm: set /dev/sdb2 faulty in /dev/md02
[root@gc1 md02]# mdadm -D /dev/md02
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
3 8 20 1 spare rebuilding /dev/sdb4
2 8 19 2 active sync /dev/sdb3
4 8 18 - faulty spare /dev/sdb2
[root@gc1 md02]# mdadm /dev/md02 -r /dev/sdb2 ---將sdb2剔除
mdadm: hot removed /dev/sdb2
[root@gc1 md02]# mdadm -D /dev/md02
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
3 8 20 1 spare rebuilding /dev/sdb4 ---熱備分割槽補上去了,,開始建立,估計要等一會會
2 8 19 2 active sync /dev/sdb3
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 20 1 active sync /dev/sdb4 ----過一會就變成active狀態了
2 8 19 2 active sync /dev/sdb3
[root@gc1 md02]# ls ---資料依然沒有丟失,raid5檔案是故障前建立的一個
lost+found raid5
補充:
1 向一個已存在的raid中新增分割槽
[root@gc1 md02]# mdadm /dev/md02 -a /dev/sdb5
2我們單純的使用-a命令不是隻是將磁碟新增到了熱備分割槽去了
[root@gc1 md02]# mdadm /dev/md02 -a /dev/sdb2 (sdb2前面已經被我們刪除了)
[root@gc1 md02]# mdadm /dev/md2 -a /dev/sdc1 ---再加一塊
[root@gc1 md02]# mdadm -D /dev/md02
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 20 1 active sync /dev/sdb4
2 8 19 2 active sync /dev/sdb3
3 8 18 - spare /dev/sdb2 ---新增到熱備分割槽了
4 8 33 - spare /dev/sdc1
擴容
[root@gc1 md02]# mdadm -G /dev/md2 -n4 --這樣就把sdc1擴容到raid成員中去了,此處02變成2是因為我不小心重啟集機器了
mdadm: Need to backup 384K of critical section..
[root@gc1 md02]# mdadm -D /dev/md2
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 20 1 active sync /dev/sdb4
2 8 19 2 active sync /dev/sdb3
3 8 33 3 active sync /dev/sdc1
4 8 18 - spare /dev/sdb2
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29096438/viewspace-1473181/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- linux軟RAID的建立和維護LinuxAI
- ☆RHEL6建立軟raid的使用☆——經典之作AI
- Linux系統中資料盤建立軟RaidLinuxAI
- Raid0建立AI
- Linux的軟RAIDLinuxAI
- 如何使用linux程式mdadm建立軟體RAID1軟陣列LinuxAI陣列
- raid5建立(轉)AI
- 用mdadm建立raid10AI
- linux下軟raid的實現LinuxAI
- Linux 中軟體 RAID 的使用LinuxAI
- Linux中的LVM和軟RAIDLinuxLVMAI
- 在 Linux 下使用 RAID(三):用兩塊磁碟建立 RAID 1(映象)LinuxAI
- linux軟raid實現方式LinuxAI
- linux的軟RAID和LVM測試LinuxAILVM
- Rhel5 軟raid5的實驗AI
- Linux下軟體RAID的實現 (轉)LinuxAI
- raid驅動不用插軟盤的方法(轉)AI
- systemtap分析軟raid io拆分問題AI
- 軟raid5 試驗(rhel 5)AI
- 在國產晶片伺服器(海之舟伺服器+作業系統)上建立軟Raid晶片伺服器作業系統AI
- mdadm用iscsi硬碟和本機硬碟建立raid硬碟AI
- 在 Linux 下使用 RAID(四):建立 RAID 5(條帶化與分散式奇偶校驗)LinuxAI分散式
- linux軟RAID配置、測試、刪除LinuxAI
- 在Linux中,如何配置軟體RAID?LinuxAI
- Raid Raid0 Raid1 Raid5 Raid0+1 Raid1+0AI
- 掃盲:Raid0、Raid1、Raid5及Raid10的區別AI
- raid1 raid2 raid5 raid6 raid10的優缺點和做各自raid需要幾塊硬碟AI硬碟
- linux raid 0 raid 1 raid 10LinuxAI
- 在Windows NT/2000下實現"軟"RAID的方法(轉)WindowsAI
- DFT 5008U3刪除和建立raid步驟AI
- Raid1 Raid2 Raid5 Raid6 Raid10如何選擇使用AI
- RAID的概念和RAID對於SQL效能的影響AISQL
- sysbench fileio 壓測磁碟raid 5 raid 1 raid10 raid 50 情況AI
- RAID0、RAID1、RAID0+1、RAID5原理介紹AI
- laravel建立軟連線Laravel
- ubuntu建立軟連線Ubuntu
- RAID10與RAID5的異同比較AI
- 轉:RAID的概念及RAID對於SQL效能的影響AISQL