分散式儲存Ceph之PG狀態詳解
- 在架構層次上,PG位於RADOS層的中間。
a. 往上負責接收和處理來自客戶端的請求。
b. 往下負責將這些資料請求翻譯為能夠被本地物件儲存所能理解的事務。 - 是組成儲存池的基本單位,儲存池中的很多特性,都是直接依託於PG實現的。
- 面向容災域的備份策略使得一般而言的PG需要執行跨節點的分散式寫,因此資料在不同節點之間的同步、恢復時的資料修復也都是依賴PG完成。
正常的PG狀態是 100%的active + clean, 這表示所有的PG是可訪問的,所有副本都對全部PG都可用。
如果Ceph也報告PG的其他的警告或者錯誤狀態。PG狀態表:
狀態 | 描述 |
---|---|
Activating | Peering已經完成,PG正在等待所有PG例項同步並固化Peering的結果(Info、Log等) |
Active | 活躍態。PG可以正常處理來自客戶端的讀寫請求 |
Backfilling | 正在後臺填充態。 backfill是recovery的一種特殊場景,指peering完成後,如果基於當前權威日誌無法對Up Set當中的某些PG例項實施增量同步(例如承載這些PG例項的OSD離線太久,或者是新的OSD加入叢集導致的PG例項整體遷移) 則透過完全複製當前Primary所有物件的方式進行全量同步 |
Backfill-toofull | 某個需要被Backfill的PG例項,其所在的OSD可用空間不足,Backfill流程當前被掛起 |
Backfill-wait | 等待Backfill 資源預留 |
Clean | 乾淨態。PG當前不存在待修復的物件, Acting Set和Up Set內容一致,並且大小等於儲存池的副本數 |
Creating | PG正在被建立 |
Deep | PG正在或者即將進行物件一致性掃描清洗 |
Degraded | 降級狀態。Peering完成後,PG檢測到任意一個PG例項存在不一致(需要被同步/修復)的物件,或者當前ActingSet 小於儲存池副本數 |
Down | Peering過程中,PG檢測到某個不能被跳過的Interval中(例如該Interval期間,PG完成了Peering,並且成功切換至Active狀態,從而有可能正常處理了來自客戶端的讀寫請求),當前剩餘線上的OSD不足以完成資料修復 |
Incomplete | Peering過程中, 由於 a. 無非選出權威日誌 b. 透過choose_acting選出的Acting Set後續不足以完成資料修復,導致Peering無非正常完成 |
Inconsistent | 不一致態。叢集清理和深度清理後檢測到PG中的物件在副本存在不一致,例如物件的檔案大小不一致或Recovery結束後一個物件的副本丟失 |
Peered | Peering已經完成,但是PG當前ActingSet規模小於儲存池規定的最小副本數(min_size) |
Peering | 正在同步態。PG正在執行同步處理 |
Recovering | 正在恢復態。叢集正在執行遷移或同步物件和他們的副本 |
Recovering-wait | 等待Recovery資源預留 |
Remapped | 重新對映態。PG活動集任何的一個改變,資料發生從老活動集到新活動集的遷移。在遷移期間還是用老的活動集中的主OSD處理客戶端請求,一旦遷移完成新活動集中的主OSD開始處理 |
Repair | PG在執行Scrub過程中,如果發現存在不一致的物件,並且能夠修復,則自動進行修復狀態 |
Scrubbing | PG正在或者即將進行物件一致性掃描 |
Unactive | 非活躍態。PG不能處理讀寫請求 |
Unclean | 非乾淨態。PG不能從上一個失敗中恢復 |
Stale | 未重新整理態。PG狀態沒有被任何OSD更新,這說明所有儲存這個PG的OSD可能掛掉, 或者Mon沒有檢測到Primary統計資訊(網路抖動) |
Undersized | PG當前Acting Set小於儲存池副本數 |
3.1.1 說明
- 降級:由上文可以得知,每個PG有三個副本,分別儲存在不同的OSD中,在非故障情況下,這個PG是active+clean 狀態,那麼,如果PG 的 副本osd.4 掛掉了,這個 PG 是降級狀態。
3.1.2 故障模擬
a. 停止osd.1
$ systemctl stop ceph-osd@1
b. 檢視PG狀態
$ bin/ceph pg stat
20 pgs: 20 active+undersized+degraded; 14512 kB data, 302 GB used, 6388 GB / 6691 GB avail; 12/36 objects degraded (33.333%)
c. 檢視叢集監控狀態
$ bin/ceph health detail
HEALTH_WARN 1 osds down; Degraded data redundancy: 12/36 objects degraded (33.333%), 20 pgs unclean, 20 pgs degraded; application not enabled on 1 pool(s)
OSD_DOWN 1 osds down
osd.1 (root=default,host=ceph-xx-cc00) is down
PG_DEGRADED Degraded data redundancy: 12/36 objects degraded (33.333%), 20 pgs unclean, 20 pgs degraded
pg 1.0 is active+undersized+degraded, acting [0,2]
pg 1.1 is active+undersized+degraded, acting [2,0]
d. 客戶端IO操作
#寫入物件
$ bin/rados -p test_pool put myobject ceph.conf
#讀取物件到檔案
$ bin/rados -p test_pool get myobject.old
#檢視檔案
$ ll ceph.conf*
-rw-r--r-- 1 root root 6211 Jun 25 14:01 ceph.conf
-rw-r--r-- 1 root root 6211 Jul 3 19:57 ceph.conf.old
故障總結:
為了模擬故障,(size = 3, min_size = 2) 我們手動停止了 osd.1,然後檢視PG狀態,可見,它此刻的狀態是active+undersized+degraded,當一個 PG 所在的 OSD 掛掉之後,這個 PG 就會進入undersized+degraded 狀態,而後面的[0,2]的意義就是還有兩個副本存活在 osd.0 和 osd.2 上, 並且這個時候客戶端可以正常讀寫IO。
3.1.3 總結
- 降級就是在發生了一些故障比如OSD掛掉之後,Ceph 將這個 OSD 上的所有 PG 標記為 Degraded。
- 降級的叢集可以正常讀寫資料,降級的 PG 只是相當於小毛病而已,並不是嚴重的問題。
- Undersized的意思就是當前存活的PG 副本數為 2,小於副本數3,將其做此標記,表明存貨副本數不足,也不是嚴重的問題。
3.2.1 說明
- Peering已經完成,但是PG當前Acting Set規模小於儲存池規定的最小副本數(min_size)。
3.2.2 故障模擬
a. 停掉兩個副本osd.1,osd.0
$ systemctl stop ceph-osd@1
$ systemctl stop ceph-osd@0
b. 檢視叢集健康狀態
$ bin/ceph health detail
HEALTH_WARN 1 osds down; Reduced data availability: 4 pgs inactive; Degraded data redundancy: 26/39 objects degraded (66.667%), 20 pgs unclean, 20 pgs degraded; application not enabled on 1 pool(s)
OSD_DOWN 1 osds down
osd.0 (root=default,host=ceph-xx-cc00) is down
PG_AVAILABILITY Reduced data availability: 4 pgs inactive
pg 1.6 is stuck inactive for 516.741081, current state undersized+degraded+peered, last acting [2]
pg 1.10 is stuck inactive for 516.737888, current state undersized+degraded+peered, last acting [2]
pg 1.11 is stuck inactive for 516.737408, current state undersized+degraded+peered, last acting [2]
pg 1.12 is stuck inactive for 516.736955, current state undersized+degraded+peered, last acting [2]
PG_DEGRADED Degraded data redundancy: 26/39 objects degraded (66.667%), 20 pgs unclean, 20 pgs degraded
pg 1.0 is undersized+degraded+peered, acting [2]
pg 1.1 is undersized+degraded+peered, acting [2]
c. 客戶端IO操作(夯住)
#讀取物件到檔案,夯住IO
$ bin/rados -p test_pool get myobject ceph.conf.old
故障總結:
- 現在pg 只剩下osd.2上存活,並且 pg 還多了一個狀態:peered,英文的意思是仔細看,這裡我們可以理解成協商、搜尋。
- 這時候讀取檔案,會發現指令會卡在那個地方一直不動,為什麼就不能讀取內容了,因為我們設定的 min_size=2 ,如果存活數少於2,比如這裡的 1 ,那麼就不會響應外部的IO請求。
d. 調整min_size=1可以解決IO夯住問題
#設定min_size = 1
$ bin/ceph osd pool set test_pool min_size 1
set pool 1 min_size to 1
e. 檢視叢集監控狀態
$ bin/ceph health detail
HEALTH_WARN 1 osds down; Degraded data redundancy: 26/39 objects degraded (66.667%), 20 pgs unclean, 20 pgs degraded, 20 pgs undersized; application not enabled on 1 pool(s)
OSD_DOWN 1 osds down
osd.0 (root=default,host=ceph-xx-cc00) is down
PG_DEGRADED Degraded data redundancy: 26/39 objects degraded (66.667%), 20 pgs unclean, 20 pgs degraded, 20 pgs undersized
pg 1.0 is stuck undersized for 65.958983, current state active+undersized+degraded, last acting [2]
pg 1.1 is stuck undersized for 65.960092, current state active+undersized+degraded, last acting [2]
pg 1.2 is stuck undersized for 65.960974, current state active+undersized+degraded, last acting [2]
f. 客戶端IO操作
#讀取物件到檔案中
$ ll -lh ceph.conf*
-rw-r--r-- 1 root root 6.1K Jun 25 14:01 ceph.conf
-rw-r--r-- 1 root root 6.1K Jul 3 20:11 ceph.conf.old
-rw-r--r-- 1 root root 6.1K Jul 3 20:11 ceph.conf.old.1
故障總結:
- 可以看到,PG狀態Peered沒有了,並且客戶端檔案IO可以正常讀寫了。
- 當min_size=1時,只要叢集裡面有一份副本活著,那就可以響應外部的IO請求。
3.2.3 總結
- Peered狀態我們這裡可以將它理解成它在等待其他副本上線。
- 當min_size = 2 時,也就是必須保證有兩個副本存活的時候就可以去除Peered這個狀態。
- 處於 Peered 狀態的 PG 是不能響應外部的請求的並且IO被掛起。
3.3.1 說明
- Peering完成,PG當前Acting Set與Up Set不一致就會出現Remapped狀態。
3.3.2 故障模擬
a. 停止osd.x
$ systemctl stop ceph-osd@x
b. 間隔5分鐘,啟動osd.x
$ systemctl start ceph-osd@x
c. 檢視PG狀態
$ ceph pg stat
1416 pgs: 6 active+clean+remapped, 1288 active+clean, 3 stale+active+clean, 119 active+undersized+degraded; 74940 MB data, 250 GB used, 185 TB / 185 TB avail; 1292/48152 objects degraded (2.683%)
$ ceph pg dump | grep remapped
dumped all
13.cd 0 0 0 0 0 0 2 2 active+clean+remapped 2018-07-03 20:26:14.478665 9453'2 20716:11343 [10,23] 10 [10,23,14] 10 9453'2 2018-07-03 20:26:14.478597 9453'2 2018-07-01 13:11:43.262605
3.1a 44 0 0 0 0 373293056 1500 1500 active+clean+remapped 2018-07-03 20:25:47.885366 20272'79063 20716:109173 [9,23] 9 [9,23,12] 9 20272'79063 2018-07-03 03:14:23.960537 20272'79063 2018-07-03 03:14:23.960537
5.f 0 0 0 0 0 0 0 0 active+clean+remapped 2018-07-03 20:25:47.888430 0'0 20716:15530 [23,8] 23 [23,8,22] 23 0'0 2018-07-03 06:44:05.232179 0'0 2018-06-30 22:27:16.778466
3.4a 45 0 0 0 0 390070272 1500 1500 active+clean+remapped 2018-07-03 20:25:47.886669 20272'78385 20716:108086 [7,23] 7 [7,23,17] 7 20272'78385 2018-07-03 13:49:08.190133 7998'78363 2018-06-28 10:30:38.201993
13.102 0 0 0 0 0 0 5 5 active+clean+remapped 2018-07-03 20:25:47.884983 9453'5 20716:11334 [1,23] 1 [1,23,14] 1 9453'5 2018-07-02 21:10:42.028288 9453'5 2018-07-02 21:10:42.028288
13.11d 1 0 0 0 0 4194304 1539 1539 active+clean+remapped 2018-07-03 20:25:47.886535 20343'22439 20716:86294 [4,23] 4 [4,23,15] 4 20343'22439 2018-07-03 17:21:18.567771 20343'22439 2018-07-03 17:21:18.567771#2分鐘之後查詢$ ceph pg stat
1416 pgs: 2 active+undersized+degraded+remapped+backfilling, 10 active+undersized+degraded+remapped+backfill_wait, 1401 active+clean, 3 stale+active+clean; 74940 MB data, 247 GB used, 179 TB / 179 TB avail; 260/48152 objects degraded (0.540%); 49665 kB/s, 9 objects/s recovering$ ceph pg dump | grep remapped
dumped all
13.1e8 2 0 2 0 0 8388608 1527 1527 active+undersized+degraded+remapped+backfill_wait 2018-07-03 20:30:13.999637 9493'38727 20754:165663 [18,33,10] 18 [18,10] 18 9493'38727 2018-07-03 19:53:43.462188 0'0 2018-06-28 20:09:36.303126
d. 客戶端IO操作
#rados讀寫正常
rados -p test_pool put myobject /tmp/test.log
3.3.3 總結
- 在 OSD 掛掉或者在擴容的時候PG 上的OSD會按照Crush演算法重新分配PG 所屬的osd編號。並且會把 PG Remap到別的OSD上去。
- Remapped狀態時,PG當前Acting Set與Up Set不一致。
- 客戶端IO可以正常讀寫。
3.4.1 說明
- 指PG透過PGLog日誌針對資料不一致的物件進行同步和修復的過程。
3.4.2 故障模擬
a. 停止osd.x
$ systemctl stop ceph-osd@x
b. 間隔1分鐘啟動osd.x
osd$ systemctl start ceph-osd@x
c. 檢視叢集監控狀態
$ ceph health detail
HEALTH_WARN Degraded data redundancy: 183/57960 objects degraded (0.316%), 17 pgs unclean, 17 pgs degraded
PG_DEGRADED Degraded data redundancy: 183/57960 objects degraded (0.316%), 17 pgs unclean, 17 pgs degraded
pg 1.19 is active+recovery_wait+degraded, acting [29,9,17]
3.4.3 總結
- Recovery是透過記錄的PGLog進行恢復資料的。
- 記錄的PGLog 在osd_max_pg_log_entries=10000條以內,這個時候透過PGLog就能增量恢復資料。
3.5.1 說明
- 當PG的副本無非透過PGLog來恢復資料,這個時候就需要進行全量同步,透過完全複製當前Primary所有物件的方式進行全量同步。
3.5.2 故障模擬
a. 停止osd.x
$ systemctl stop ceph-osd@x
b. 間隔10分鐘啟動osd.x
$ osd systemctl start ceph-osd@x
c. 檢視叢集健康狀態
$ ceph health detail
HEALTH_WARN Degraded data redundancy: 6/57927 objects degraded (0.010%), 1 pg unclean, 1 pg degraded
PG_DEGRADED Degraded data redundancy: 6/57927 objects degraded (0.010%), 1 pg unclean, 1 pg degraded
pg 3.7f is active+undersized+degraded+remapped+backfilling, acting [21,29]
3.5.3 總結
- 無法根據記錄的PGLog進行恢復資料時,就需要執行Backfill過程全量恢復資料。
- 如果超過osd_max_pg_log_entries=10000條, 這個時候需要全量恢復資料。
3.6.1 說明
- mon檢測到當前PG的Primary所在的osd當機。
- Primary超時未向mon上報pg相關的資訊(例如網路阻塞)。
- PG內三個副本都掛掉的情況。
3.6.2 故障模擬
a. 分別停止PG中的三個副本osd, 首先停止osd.23
$ systemctl stop ceph-osd@23
b. 然後停止osd.24
$ systemctl stop ceph-osd@24
c. 檢視停止兩個副本PG 1.45的狀態(undersized+degraded+peered)
$ ceph health detail
HEALTH_WARN 2 osds down; Reduced data availability: 9 pgs inactive; Degraded data redundancy: 3041/47574 objects degraded (6.392%), 149 pgs unclean, 149 pgs degraded, 149 pgs undersized
OSD_DOWN 2 osds down
osd.23 (root=default,host=ceph-xx-osd02) is down
osd.24 (root=default,host=ceph-xx-osd03) is down
PG_AVAILABILITY Reduced data availability: 9 pgs inactive
pg 1.45 is stuck inactive for 281.355588, current state undersized+degraded+peered, last acting [10]
d. 在停止PG 1.45中第三個副本osd.10
$ systemctl stop ceph-osd@10
e. 檢視停止三個副本PG 1.45的狀態(stale+undersized+degraded+peered)
$ ceph health detail
HEALTH_WARN 3 osds down; Reduced data availability: 26 pgs inactive, 2 pgs stale; Degraded data redundancy: 4770/47574 objects degraded (10.026%), 222 pgs unclean, 222 pgs degraded, 222 pgs undersized
OSD_DOWN 3 osds down
osd.10 (root=default,host=ceph-xx-osd01) is down
osd.23 (root=default,host=ceph-xx-osd02) is down
osd.24 (root=default,host=ceph-xx-osd03) is down
PG_AVAILABILITY Reduced data availability: 26 pgs inactive, 2 pgs stale
pg 1.9 is stuck inactive for 171.200290, current state undersized+degraded+peered, last acting [13]
pg 1.45 is stuck stale for 171.206909, current state stale+undersized+degraded+peered, last acting [10]
pg 1.89 is stuck inactive for 435.573694, current state undersized+degraded+peered, last acting [32]
pg 1.119 is stuck inactive for 435.574626, current state undersized+degraded+peered, last acting [28]
f. 客戶端IO操作
#讀寫掛載磁碟IO 夯住
ll /mnt/
故障總結:
先停止同一個PG內兩個副本,狀態是undersized+degraded+peered。
然後停止同一個PG內三個副本,狀態是stale+undersized+degraded+peered。
3.6.3 總結
- 當出現一個PG內三個副本都掛掉的情況,就會出現stale狀態。
- 此時該PG不能提供客戶端讀寫,IO掛起夯住。
- Primary超時未向mon上報pg相關的資訊(例如網路阻塞),也會出現stale狀態。
3.7.1 說明
- PG透過Scrub檢測到某個或者某些物件在PG例項間出現了不一致
3.7.2 故障模擬
a. 刪除PG 3.0中副本osd.34標頭檔案
$ rm -rf /var/lib/ceph/osd/ceph-34/current/3.0_head/DIR_0/1000000697c.0000122c__head_19785300__3
b. 手動執行PG 3.0進行資料清洗
$ ceph pg scrub 3.0
instructing pg 3.0 on osd.34 to scrub
c. 檢查叢集監控狀態
$ ceph health detail
HEALTH_ERR 1 scrub errors; Possible data damage: 1 pg inconsistent
OSD_SCRUB_ERRORS 1 scrub errors
PG_DAMAGED Possible data damage: 1 pg inconsistent
pg 3.0 is active+clean+inconsistent, acting [34,23,1]
d. 修復PG 3.0
$ ceph pg repair 3.0
instructing pg 3.0 on osd.34 to repair
#檢視叢集監控狀態
$ ceph health detail
HEALTH_ERR 1 scrub errors; Possible data damage: 1 pg inconsistent, 1 pg repair
OSD_SCRUB_ERRORS 1 scrub errors
PG_DAMAGED Possible data damage: 1 pg inconsistent, 1 pg repair
pg 3.0 is active+clean+scrubbing+deep+inconsistent+repair, acting [34,23,1]
#叢集監控狀態已恢復正常
$ ceph health detail
HEALTH_OK
故障總結:
當PG內部三個副本有資料不一致的情況,想要修復不一致的資料檔案,只需要執行ceph pg repair修復指令,ceph就會從其他的副本中將丟失的檔案複製過來就行修復資料。
3.7.3 故障模擬
- 當osd短暫掛掉的時候,因為叢集內還存在著兩個副本,是可以正常寫入的,但是 osd.34 內的資料並沒有得到更新,過了一會osd.34上線了,這個時候osd.34的資料是陳舊的,就透過其他的OSD 向 osd.34 進行資料的恢復,使其資料為最新的,而這個恢復的過程中,PG的狀態會從inconsistent ->recover -> clean,最終恢復正常。
- 這是叢集故障自愈一種場景。
3.8.1 說明
- Peering過程中,PG檢測到某個不能被跳過的Interval中(例如該Interval期間,PG完成了Peering,並且成功切換至Active狀態,從而有可能正常處理了來自客戶端的讀寫請求),當前剩餘線上的OSD不足以完成資料修復.
3.8.2 故障模擬
a. 檢視PG 3.7f內副本數
$ ceph pg dump | grep ^3.7f
dumped all
3.7f 43 0 0 0 0 494927872 1569 1569 active+clean 2018-07-05 02:52:51.512598 21315'80115 21356:111666 [5,21,29] 5 [5,21,29] 5 21315'80115 2018-07-05 02:52:51.512568 6206'80083 2018-06-29 22:51:05.831219
b. 停止PG 3.7f 副本osd.21
$ systemctl stop ceph-osd@21
c. 檢視PG 3.7f狀態
$ ceph pg dump | grep ^3.7f
dumped all
3.7f 66 0 89 0 0 591396864 1615 1615 active+undersized+degraded 2018-07-05 15:29:15.741318 21361'80161 21365:128307 [5,29] 5 [5,29] 5 21315'80115 2018-07-05 02:52:51.512568 6206'80083 2018-06-29 22:51:05.831219
d. 客戶端寫入資料,一定要確保資料寫入到PG 3.7f的副本中[5,29]
$ fio -filename=/mnt/xxxsssss -direct=1 -iodepth 1 -thread -rw=read -ioengine=libaio -bs=4M -size=2G -numjobs=30 -runtime=200 -group_reporting -name=read-libaio
read-libaio: (g=0): rw=read, bs=4M-4M/4M-4M/4M-4M, ioengine=libaio, iodepth=1
...
fio-2.2.8
Starting 30 threads
read-libaio: Laying out IO file(s) (1 file(s) / 2048MB)
Jobs: 5 (f=5): [_(5),R(1),_(5),R(1),_(3),R(1),_(2),R(1),_(1),R(1),_(9)] [96.5% done] [1052MB/0KB/0KB /s] [263/0/0 iops] [eta 00m:02s] s]
read-libaio: (groupid=0, jobs=30): err= 0: pid=32966: Thu Jul 5 15:35:16 2018
read : io=61440MB, bw=1112.2MB/s, iops=278, runt= 55203msec
slat (msec): min=18, max=418, avg=103.77, stdev=46.19
clat (usec): min=0, max=33, avg= 2.51, stdev= 1.45
lat (msec): min=18, max=418, avg=103.77, stdev=46.19
clat percentiles (usec):
| 1.00th=[ 1], 5.00th=[ 1], 10.00th=[ 1], 20.00th=[ 2],
| 30.00th=[ 2], 40.00th=[ 2], 50.00th=[ 2], 60.00th=[ 2],
| 70.00th=[ 3], 80.00th=[ 3], 90.00th=[ 4], 95.00th=[ 5],
| 99.00th=[ 7], 99.50th=[ 8], 99.90th=[ 10], 99.95th=[ 14],
| 99.99th=[ 32]
bw (KB /s): min=15058, max=185448, per=3.48%, avg=39647.57, stdev=12643.04
lat (usec) : 2=19.59%, 4=64.52%, 10=15.78%, 20=0.08%, 50=0.03%
cpu : usr=0.01%, sys=0.37%, ctx=491792, majf=0, minf=15492
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=15360/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=1
Run status group 0 (all jobs):
READ: io=61440MB, aggrb=1112.2MB/s, minb=1112.2MB/s, maxb=1112.2MB/s, mint=55203msec, maxt=55203msec
e. 停止PG 3.7f中副本osd.29,並且檢視PG 3.7f狀態(undersized+degraded+peered)
#停止該PG副本osd.29
systemctl stop ceph-osd@29
#檢視該PG 3.7f狀態為undersized+degraded+peered
ceph pg dump | grep ^3.7f
dumped all
3.7f 70 0 140 0 0 608174080 1623 1623 undersized+degraded+peered 2018-07-05 15:35:51.629636 21365'80169 21367:132165 [5] 5 [5] 5 21315'80115 2018-07-05 02:52:51.512568 6206'80083 2018-06-29 22:51:05.831219
f. 停止PG 3.7f中副本osd.5,並且檢視PG 3.7f狀態(undersized+degraded+peered)
#停止該PG副本osd.5
$ systemctl stop ceph-osd@5
#檢視該PG狀態undersized+degraded+peered
$ ceph pg dump | grep ^3.7f
dumped all
3.7f 70 0 140 0 0 608174080 1623 1623 stale+undersized+degraded+peered 2018-07-05 15:35:51.629636 21365'80169 21367:132165 [5] 5 [5] 5 21315'80115 2018-07-05 02:52:51.512568 6206'80083 2018-06-29 22:51:05.831219
g. 拉起PG 3.7f中副本osd.21(此時的osd.21資料比較陳舊), 檢視PG狀態(down)
#拉起該PG的osd.21
$ systemctl start ceph-osd@21
#檢視該PG的狀態down
$ ceph pg dump | grep ^3.7f
dumped all
3.7f 66 0 0 0 0 591396864 1548 1548 down 2018-07-05 15:36:38.365500 21361'80161 21370:111729 [21] 21 [21] 21 21315'80115 2018-07-05 02:52:51.512568 6206'80083 2018-06-29 22:51:05.831219
h. 客戶端IO操作
#此時客戶端IO都會夯住
ll /mnt/
故障總結:
首先有一個PG 3.7f有三個副本[5,21,29], 當停掉一個osd.21之後, 寫入資料到osd.5, osd.29。 這個時候停掉osd.29, osd.5 ,最後拉起osd.21。 這個時候osd.21的資料比較舊,就會出現PG為down的情況,這個時候客戶端IO會夯住,只能拉起掛掉的osd才能修復問題。
3.8.3 結論
- 典型的場景:A(主)、B、C
a. 首先kill B
b. 新寫入資料到 A、C
c. kill A和C
d. 拉起B- 出現PG為Down的場景是由於osd節點資料太舊,並且其他線上的osd不足以完成資料修復。
- 這個時候該PG不能提供客戶端IO讀寫, IO會掛起夯住。
作者:李航
個人簡介: 多年的底層開發經驗,在高效能nginx開發和分散式快取redis cluster有著豐富的經驗,目前從事Ceph工作兩年左右。
先後在58同城、汽車之家、優酷土豆集團工作。 目前供職於滴滴基礎平臺運維部 負責分散式Ceph叢集開發及運維等工作。
個人主要關注的技術領域:高效能Nginx開發、分散式快取、分散式儲存。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/1600/viewspace-2804467/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Ceph分散式儲存技術解讀分散式
- 分散式儲存ceph 物件儲存配置zone同步分散式物件
- Ceph MDS States狀態詳解
- 分散式儲存glusterfs詳解【轉】分散式
- CEPH-4:ceph RadowGW物件儲存功能詳解物件
- CEPH分散式儲存搭建(物件、塊、檔案三大儲存)分散式物件
- 滴滴Ceph分散式儲存系統優化之鎖優化分散式優化
- docker筆記39-ceph分散式儲存的搭建Docker筆記分散式
- 滴滴Ceph分散式儲存系統最佳化之鎖最佳化分散式
- Kubernetes中分散式儲存Rook-Ceph部署快速演練分散式
- ceph之pg inactive
- 分散式儲存技術解讀系列之GFS分散式
- Centos7下使用Ceph-deploy快速部署Ceph分散式儲存-操作記錄CentOS分散式
- 分散式儲存最全詳解(圖文全面總結)分散式
- Ceph pg unfound處理過程詳解
- 分散式檔案儲存FastDFS(七)FastDFS配置檔案詳解分散式AST
- Redis 分散式儲存Redis分散式
- HDFS分散式儲存分散式
- 杉巖分散式儲存解決方案分散式
- Android Activity 重建之狀態儲存與恢復Android
- Ceph儲存池管理
- 分散式kv儲存系統之Etcd叢集分散式
- DAOS 分散式非同步物件儲存|儲存模型分散式非同步物件模型
- 面向海量資料,一篇文章認識Ceph分散式儲存系統分散式
- 分散式儲存轉崗記分散式
- canvas 儲存與還原狀態Canvas
- Gartner:浪潮儲存進入分散式儲存前三分散式
- 分散式系統技術:儲存之資料庫分散式資料庫
- 淺談分散式儲存之SSD基本原理分散式
- 分散式文件儲存資料庫之MongoDB副本集分散式資料庫MongoDB
- 分散式文件儲存資料庫之MongoDB索引管理分散式資料庫MongoDB索引
- 02 . 分散式儲存之FastDFS 高可用叢集部署分散式AST
- [原始碼分析] Dynomite 分散式儲存引擎 之 DynoJedisClient(1)原始碼MIT分散式儲存引擎client
- [原始碼分析] Dynomite 分散式儲存引擎 之 DynoJedisClient(2)原始碼MIT分散式儲存引擎client
- 哪些企業需要分散式式儲存?分散式
- 物件和函式的區別就是物件可以儲存狀態物件函式
- 杉巖海量圖片分散式儲存解決方案分散式
- Kubernetes中分散式儲存Rook-Ceph的使用:一個ASP.NET Core MVC的案例分散式ASP.NETMVC