GlusterFS和Ceph比比看
儲存世界最近發生了很大變化。十年前,Fibre Channel SAN 檔案管理器是企業儲存的標準。而在目前的環境中,受到基礎架構即服務雲的影響,資料儲存需要更加靈活。
GlusterFS 和 Ceph 是兩個靈活的儲存系統,在雲環境中表現非常出色。
在嘗試瞭解 GlusterFS 與 Ceph 之間的相似之處和不同之處之前,讓我們來討論在雲環境中對靈活儲存的一些要求。
- 縱向擴充套件和橫向擴充套件。在雲環境中,必須可以很容易地向伺服器新增更多儲存空間以及擴充套件可用儲存池。Ceph 和 GlusterFS 都可以通過輕鬆將新儲存裝置整合到現有儲存產品中來滿足這一要求。
- 高可用性。GlusterFS 和 Ceph 的複製是同時將資料寫入不同的儲存節點。這樣做的結果是,訪問時間增加,資料可用性也提高。在 Ceph 中,預設情況下將資料複製到三個不同的節點,這確保備份始終可用。
- 商品化硬體。GlusterFS 和 Ceph 是在 Linux 作業系統之上開發的。因此,對硬體唯一的要求是這些產品具有能夠執行 Linux 的硬體。任何商品化硬體都可以執行 Linux 作業系統,結果是使用這些技術的公司可以大大減少在硬體上的投資——如果他們這樣做的話。然而,實際上,許多公司正在投資專門用於執行 GlusterFS 或 Ceph 的硬體,因為更快的硬體可以更快地訪問儲存。
- 去中心化。在雲環境中,永遠不應該有中心點故障。對於儲存,這意味著不應該用一箇中央位置儲存後設資料。GlusterFS 和 Ceph 實現了後設資料訪問去中心化的解決方案,從而降低了儲存訪問的可用性和冗餘性。
現在來談談 GlusterFS 與 Ceph 的差異。顧名思義,GlusterFS 是來自 Linux 世界的檔案系統,並且遵守所有 POSIX 標準。儘管你可以將 GlusterFS 輕鬆整合到面向 Linux 的環境中,但在 Windows 環境中整合 GlusterFS 很難。
Ceph 是一種全新的儲存方法,對應於 Swift 物件儲存。在物件儲存中,應用程式不會寫入檔案系統,而是使用儲存中的直接 API 訪問寫入儲存。因此,應用程式能夠繞過作業系統的功能和限制。如果已經開發了一個應用程式來寫入 Ceph 儲存,那麼使用哪個作業系統無關緊要。結果是,Ceph 儲存在 Windows 環境中像在 Linux 環境中一樣容易整合。
基於 API 的儲存訪問並不是應用程式可以訪問 Ceph 的唯一方式。為了最佳的整合,還有一個 Ceph 塊裝置,它可以在 Linux 環境中用作常規塊裝置,使你可以像訪問常規 Linux 硬碟一樣來使用 Ceph。Ceph 還有 CephFS,它是針對 Linux 環境編寫的 Ceph 檔案系統。
最近,SUSE 新增了一個 iSCSI 介面,使得執行 iSCSI 客戶端的客戶端能像任何其他 iSCSI 目標一樣訪問 Ceph 儲存。
所有這些功能使得 Ceph 成為異構環境的更好選擇,而不僅僅是使用 Linux 作業系統。
所以 Ceph 是一個更靈活的產品,更容易整合到非 Linux 環境中。對於許多公司來說,這足以讓它們在 Ceph 而不是 GlusterFS 上構建儲存產品。對於僅執行 Linux 的環境,此功能不夠有說服力,所以來談談另一個非常重要的事情:速度。
為了比較 GlusterFS 與 Ceph 哪個更快已經進行了幾項測試,但迄今為止沒有確切的結論。GlusterFS 儲存演算法更快,並且由於 GlusterFS 以磚組織儲存的方式實現了更多的分層,這在某些場景下(特別是使用非優化 Ceph 的話)可能導致更快的速度。另一方面,Ceph 提供了足夠的定製功能來使其與 GlusterFS 一樣快——結果是兩者的效能都不夠令人信服一個比另一個更強。
然而,現實表明,Ceph 訪問儲存的不同方法使其成為更流行的技術。事實證明,更多的公司正在考慮 Ceph 技術而不是GlusterFS,而且 GlusterFS 仍然與 Red Hat 密切相關。例如,SUSE 還沒有 GlusterFS 的商業實現,而 Ceph 已經被開源社群廣泛採用,市場上有各種不同的產品。可以說,Ceph 確實已經勝過 GlusterFS。
相關文章
- Ceph 管理和使用
- Ceph 和防火牆的故事防火牆
- GlusterFS常用命令
- OracleLinux9編譯安裝GlusterFS和nfs-GaneshaOracleLinux編譯NFS
- OpenStack和Ceph在Genomic Era的應用
- 分散式儲存glusterfs詳解【轉】分散式
- GlusterFS企業分散式儲存【轉】分散式
- 深入理解GlusterFS之資料均衡
- kubernetes實踐之二十六:GlusterFS
- ceph叢集
- Ceph介紹
- Ceph df分析
- Ceph核心元件元件
- CEPH-5:ceph叢集基本概念與管理
- CEPH-4:ceph RadowGW物件儲存功能詳解物件
- ceph:忘記 甚至 從ceph裡刪除了 ceph.client.admin密碼,怎麼處理?client密碼
- CEPH叢集重啟後ceph osd status和ceph -s命令檢視發現節點伺服器osd服務不成功的解決方案伺服器
- 綜合專案:lvs+keepalived+glusterfs群集
- GlusterFS分散式儲存學習筆記分散式筆記
- 每天5分鐘複習OpenStack(十二)Ceph FileStore 和 BlueSotre
- ceph-crush map區分ssd和hdd資源池
- ceph叢集手動部署(後期新增mon和osd)
- glance對接ceph
- ceph之pg inactive
- Ceph入門教程
- How OpenStack integrates with Ceph?
- Ceph心跳機制
- ceph安裝配置
- GlusterFS在Kubernetes中的應用實戰(一)
- Ceph儲存後端ObjectStore架構和技術演進後端Object架構
- Ceph提供nfs服務NFS
- Ceph儲存池管理
- Ceph 架構以及部署架構
- ceph-immmutable-object-cacheObject
- ceph-RBD塊操作
- 深入理解 ceph mgr
- CEPH 13.2.4 Mimic釋出
- Ceph配置引數分析