DB2 pureScale的三層架構

luckyfriends發表於2014-11-10

2009 12 月,IBM DB2 V9.8這個版本中首次推出了DB2 pureScale特性。這個特性利用了z/OS大型機上經過驗證的DB2資料庫叢集技術,在開放平臺上實現共享磁碟Share Disk)架構,下面具體談談

DB2 pureScale的三層架構

   從架構上看,DB2 pureScacle分為三層,即資料庫叢集、叢集服務和GPFS檔案系統

第一,DB2 pureScale資料庫叢集由成員和Coupling Facility節點(簡稱為CF)組成。成員代表一個DB2處理引擎系統負載變化可以動態的新增或刪除成員對於活躍成員數量的修改不影響客戶端的應用 CF節點採用集中鎖機制以保證資料的一致性,另外,CF節點用來管理DB2資料頁的全域性快取。在實際應用中,應配置兩個CF節點,一主一從,這樣可用避免單點故障。

成員與CF節點之間需要進行通訊。為了儘可能地提高通訊效率,DB2 pureScale使用了 RDMARemote Direct Memory Access技術。RDMA 支援直接讀寫另一臺計算機的記憶體,並且不需要佔用目標計算機的CPU資源RDMA技術結合超高速網路,如InfiniBand,使得DB2 pureScale能高效地伸縮。

第二,DB2叢集服務整合在DB2 pureScale支援錯誤檢測自動恢復。這些技術包括IBM Tivoli Systems Automation for Multiplatforms (TSAMP)Reliable Scalable Cluster Technology (RSCT)。談到RSCT技術,讀者知道,叢集中各個節點透過心跳機制來通報彼此的情況,例如,叢集中只有2個節點,某一時刻節點1的心跳出現故障,但是節點1還在執行,節點2也在執行,但是接收不到節點1的心跳了,於是叢集就分裂為兩個小的叢集了,這種場景被稱為腦裂Split-Brain)。那麼出現了這種情況,哪個節點來接管整個叢集嗎?通常需要藉助仲裁盤Tiebreaker disk)或者仲裁IP,即由仲裁者來決定由哪個節點來接管。上述腦裂處理的細節都透過RSCT技術被自動整合到DB2 pureScale中了。

第三,關於GPFS檔案系統。DB2 pureScale各個節點透過GPFS檔案系統訪問共享儲存。DB2 pureScale 強烈推薦使用支援“SCSI-3 永久保留”(Persistent Reservations)的儲存裝置,儘管 DB2 pureScale 也可以支援非 SCSI-3 協議的儲存,但是發生故障時,IO 遮蔽的時間將大為延長,這將嚴重影響成員當機時資料庫受影響資料的恢復時間。為了方便使用者,DB2 提供GPFS檔案系統的安裝和配置。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/14710393/viewspace-1326987/,如需轉載,請註明出處,否則將追究法律責任。

相關文章