Raid共享熱備盤
共享熱備盤
由於條件有限,本試驗是在Vmware虛擬機器上模擬完成的。試驗使用的是兩個raid1組之間的共享一個熱備盤,一開始md0有一個熱備盤,而md1沒有熱備盤,通過修改配置檔案可以使它們共享一塊熱備盤。如此可在節省磁碟的同時,同時也增強了安全性。
1、環境搭建:
# fdisk -l | grep '^/dev/' //檢視當前磁碟的分割槽結構
/dev/sda1 * 1 13 104391 83 Linux
/dev/sda2 14 2610 20860402+ 8e Linux LVM
/dev/sdb1 1 2610 20964793+ fd Linux raid autodetect
/dev/sdc1 1 2610 20964793+ fd Linux raid autodetect
/dev/sdd1 1 2610 20964793+ fd Linux raid autodetect
/dev/sde1 1 2610 20964793+ fd Linux raid autodetect
/dev/sdf1 1 2610 20964793+ fd Linux raid autodetect
[root@localhost ~]#
[root@localhost ~]# mdadm -C /dev/md0 -l 1 -n 2 /dev/sdb1/dev/sdc1 #建立raid1裝置1——》md0
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -C /dev/md1 -l 1 -n 2 /dev/sdd1/dev/sde1 #建立raid1裝置2——》md1
mdadm: array /dev/md1 started.
[root@localhost ~]#
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdf #增加一塊熱備盤到md0中去,當然也可以一開始建立md0的時候使用選項-x可以實現: mdadm -C /dev/md0 -l 1 -n 2 -x1 /dev/sdb1 /dev/sdc1/dev/sdf1
mdadm: added /dev/sdf
[root@localhost ~]#
完成以上操作之後格式化建立的raid
[root@localhost ~]# mkfs.ext3 /dev/md0
[root@localhost ~]# mkfs.ext3 /dev/md1
[root@localhost ~]# mdadm -D /dev/md0 #檢視md0的詳細raid資訊
/dev/md0:
Version : 0.90
Creation Time : Mon Feb 6 21:14:26 2012
Raid Level : raid1
Array Size : 20964672 (19.99 GiB 21.47 GB)
Used Dev Size : 20964672 (19.99 GiB 21.47 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon Feb 6 21:21:37 2012
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
UUID :d3139435:a8e981cc:db393640:b48c5bcf
Events : 0.2
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 80 - spare /dev/sdf
#這裡可以發現熱備盤是在md0上的
[root@localhost ~]# mdadm -D /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Mon Feb 6 21:14:46 2012
Raid Level : raid1
Array Size : 20964672 (19.99 GiB 21.47 GB)
Used Dev Size : 20964672 (19.99 GiB 21.47 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Mon Feb 6 21:21:44 2012
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID :96798114:27a61808:4e3e764e:ae834ac5
Events : 0.2
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
#md1上沒有熱備盤
[root@localhost ~]#
生成資訊重定向到配置檔案中
[root@localhost ~]# mdadm -Ds >/etc/mdadm.conf
[root@localhost ~]# cat /etc/mdadm.conf
ARRAY /dev/md0 level=raid1num-devices=2 metadata=0.90 spares=1 UUID=d3139435:a8e981cc:db393640:b48c5bcf
ARRAY /dev/md1 level=raid1num-devices=2 metadata=0.90 UUID=96798114:27a61808:4e3e764e:ae834ac5
[root@localhost ~]# vim /etc/mdadm.conf
[root@localhost ~]# cat /etc/mdadm.conf #修改內容如下
ARRAY /dev/md0 level=raid1num-devices=2 metadata=0.90 spare-group=sparedisks UUID=d3139435:a8e981cc:db393640:b48c5bcf
ARRAY /dev/md1 level=raid1num-devices=2 metadata=0.90 spare-group=sparedisks UUID=96798114:27a61808:4e3e764e:ae834ac5
[root@localhost ~]#
2、啟動監控,監控室必須的,要知道系統是沒有那麼聰明的,哈哈
[root@localhost ~]# mdadm --monitor --mail=root@localhost--syslog --program=/root/md.sh --delay=300 /dev/md* --daemonise #啟用監控兩組raid裝置,並且有狀況傳送資訊給root使用者,以及後臺執行
3867
[root@localhost ~]#
#當然也可以直接使用如下命令使破壞的過程日誌顯示在螢幕上,而不是發郵件的形式給管理員
[root@localhost ~]# mdadm --monitor /dev/md*
3、模擬破壞過程
[root@localhost ~]# mdadm /dev/md1 -f /dev/sde1 #破壞/dev/sde1
[root@localhost ~]# mdadm -D /dev/md0 #再次檢視當前md0的詳細狀態
/dev/md0:
Version : 0.90
Creation Time : Mon Feb 6 21:14:26 2012
RaidLevel : raid1
Array Size : 20964672 (19.99 GiB 21.47 GB)
Used Dev Size : 20964672 (19.99 GiB 21.47 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon Feb 6 21:29:04 2012
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID :d3139435:a8e981cc:db393640:b48c5bcf
Events : 0.4
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
#裝置/dev/sdf已經不在md0中了
[root@localhost ~]#
[root@localhost ~]# mdadm -D /dev/md1 #檢視md1的詳細資訊
/dev/md1:
Version : 0.90
Creation Time : Mon Feb 6 21:14:46 2012
Raid Level : raid1
Array Size : 20964672 (19.99 GiB 21.47 GB)
Used Dev Size : 20964672 (19.99 GiB 21.47 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Mon Feb 6 21:29:04 2012
State : clean, degraded, recovering
Active Devices : 1
Working Devices : 2
Failed Devices : 1
Spare Devices : 1
Rebuild Status : 14% complete
UUID :96798114:27a61808:4e3e764e:ae834ac5
Events : 0.6
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
2 8 80 1 spare rebuilding /dev/sdf
3 8 65 - faulty spare /dev/sde1
#此時我們可以看到sdf熱備盤已經轉到md1下了
相關文章
- raid5硬碟掉線但熱備盤未啟用如何恢復資料AI硬碟
- 【伺服器資料恢復】raid5熱備盤同步失敗的資料恢復案例伺服器資料恢復AI
- 【伺服器資料恢復】RAID5熱備盤同步資料失敗的資料恢復案例伺服器資料恢復AI
- NAS盤RAID介紹AI
- 伺服器資料恢復—raid5熱備盤同步資料失敗的資料恢復過程伺服器資料恢復AI
- 【北亞資料恢復】raid5在熱備盤同步資料過程中,硬碟掉線導致raid崩潰的資料恢復案例資料恢復AI硬碟
- 【伺服器資料恢復】raid5硬碟離線後熱備盤未啟用的資料恢復案例伺服器資料恢復AI硬碟
- linux建立邏輯卷,遠端共享為備份盤Linux
- 【北亞資料恢復】IBM伺服器raid5硬碟離線,熱備盤未啟用導致raid崩潰的資料恢復案例資料恢復IBM伺服器AI硬碟
- 伺服器資料恢復—OceanStor儲存raid5熱備盤同步資料失敗的資料恢復案例伺服器資料恢復AI
- 【伺服器資料恢復】Raid5熱備盤上線同步時另一塊硬碟離線的資料恢復案例伺服器資料恢復AI硬碟
- 【伺服器資料恢復】硬碟離線但是熱備盤未啟用導致RAID5崩潰的資料恢復案例伺服器資料恢復硬碟AI
- 【伺服器資料恢復】Raid5熱備盤同步失敗導致檔案系統不可用的資料恢復案例伺服器資料恢復AI
- 伺服器資料恢復—raid5成員盤(少一塊盤)新建raid5如何恢復原raid5資料?伺服器資料恢復AI
- PostgreSQL線上熱備SQL
- 熱備份原理
- Oracle 熱備份Oracle
- 鍵盤滑鼠共享效率工具-Synergy
- 【北亞伺服器資料恢復】EMC儲存Raid5中2塊硬碟損壞,熱備盤未啟用的資料恢復案例伺服器資料恢復AI硬碟
- 【伺服器資料恢復】5盤RAID5中4塊盤重建RAID5後恢復原RAID5資料的案例伺服器資料恢復AI
- raid驅動不用插軟盤的方法(轉)AI
- Linux系統中資料盤建立軟RaidLinuxAI
- 智汀雲盤-網盤開發golagn:共享檔案Go
- 伺服器資料恢復-raid5多塊磁碟離線,熱備盤沒有啟用導致陣列崩潰的資料恢復案例伺服器資料恢復AI陣列
- 【北亞伺服器資料恢復】Raid5熱備盤同步資料過程中硬碟離線導致同步失敗的資料恢復伺服器資料恢復AI硬碟
- Mysql主從熱備MySql
- oracle 熱備指令碼 .Oracle指令碼
- 9、雙機熱備
- mysql的冷備份與熱備份MySql
- oracle的熱備份和冷備份Oracle
- w10共享盤怎麼設定_win10如何共享硬碟Win10硬碟
- Oracle OCP(62):熱備份Oracle
- oracle 熱備及恢復Oracle
- oracle雙機熱備份Oracle
- 生成熱備份指令碼指令碼
- Oracle熱備份原理分析Oracle
- oracle的熱備指令碼Oracle指令碼
- 企業網盤實現區域網共享