如何補全ClickHouse高可用短板?

danny_2018發表於2022-10-31

相信大家都對大名鼎鼎的ClickHouse有一定的瞭解了,它強大的資料分析效能讓人印象深刻。但在位元組大量生產使用中,發現了ClickHouse依然存在了一定的限制。例如:

缺少完整的upsert和delete操作

多表關聯查詢能力弱

叢集規模較大時可用性下降(對位元組尤其如此)

沒有資源隔離能力

因此,我們決定將ClickHouse能力進行全方位加強,打造一款更強大的資料分析平臺。後面我們將從五個方面來和大家分享,本篇將詳細介紹我們是如何為ClickHouse增強高可用能力的。

位元組遇到的ClickHouse可用性問題

隨著位元組業務的快速發展,產品快速擴張,承載業務的ClickHouse叢集節點數也快速增加。另一方面,按照天進行的資料分割槽也快速增加,一個叢集管理的庫表特別多,開始出現後設資料不一致的情況。兩方面結合,導致叢集的可用性極速下降,以至於到了業務難以接受的程度。直觀的問題有三類:

1、故障變多

典型的例子如硬體故障,幾乎每天都會出現。另外,當叢集達到一定的規模,Zookeeper會成為瓶頸,增加故障發生頻率。

2、故障恢復時間長

因為資料分割槽變多,導致一旦發生故障,恢復時間經常會需要1個小時以上,這是業務方完全不能接受的。

3、運維複雜度提升

以往只需要一個人負責運維的叢集,由於節點增加和分割槽變多,運維複雜度和難度成倍的增加,目前運維人數增加了幾人也依然拙荊見肘,依然難保證叢集的穩定執行。

可用性問題已經成為制約業務發展的重要問題,因此我們決定將影響高可用的問題一一拆解,並逐個解決。

提升高可用能力的方案

一、降低Zookeeper壓力

問題所在:

原生ClickHouse 使用 ReplicatedMergeTree 引擎來實現資料同步。原理上,ReplicatedMergeTree 基於 ZooKeeper 完成多副本的選主、資料同步、故障恢復等功能。由於 ReplicatedMergeTree 對 ZooKeeper 的使用比較重,除了每組副本一些表級別的元資訊,還儲存了邏輯日誌、part 資訊等潛在數量級較大的資訊。Zookeeper並不是一個能做到良好線性擴充套件的系統,當ZooKeeper 在相對較高的負載情況下執行時,往往效能表現並不佳,甚至會出現副本無法寫入,資料也無法同步的情況。在位元組內部實際使用和運維 ClickHouse 的過程中,ZooKeeper 也是非常容易成為一個瓶頸的元件。

改造思路:

ReplicatedMergeTree 支援 insert_quorum,insert_quorum 是指如果副本數為3,insert_quorum=2,要成功寫入至少兩個副本才會返回寫入成功。

新分割槽在副本之間複製的流程如下:

可以看到,反覆在 zookeeper 中進行分發日誌、資料交換等步驟,這正是引起瓶頸的原因之一。

為了降低對 ZooKeeper 的負載,在ByteHouse中重新實現了一套 HaMergeTree 引擎。透過HaMergeTree降低對 ZooKeeper 的請求次數,減少在 ZooKeeper 上儲存的資料量,新的 HaMergeTree 同步引擎:

1)保留ZooKeeper上表級別的元資訊;

2)簡化邏輯日誌的分配;

3)將 part 資訊從 ZooKeeper 日誌移除。

HaMergeTree 減少了操作日誌等資訊在zookeeper裡面的存放,來減少zookeeper的負載,zookeeper裡面只是存放log LSN, 具體日誌在副本之間透過gossip協議同步回放。

在保持和ReplicatedMergeTree完全相容的前提下,新的 HaMergeTree 極大減輕了對 ZooKeeper 的負載,實現了 ZooKeeper 叢集的壓力與資料量不相關。上線後,因Zookeeper導致的異常大量減少。無論是單叢集幾百甚至上千節點,還是單節點上萬張表,都能保障良好的穩定性。

二、提升故障恢復能力

問題所在:

雖然所有資料從業者都在做各種努力,想要保證線上生產環境不出故障,但是現實中還是難以避免會遇到各式各樣的問題。主要是由下面這幾種因素引起的:

軟體缺陷:軟體設計本身的Bug引起的系統非正常終止,或依賴的元件相容引發的問題。

硬體故障:常見的有磁碟損壞、內容故障、CPU故障等,當叢集規模擴大後發生的頻率也線性增加。

記憶體溢位導致程式被停止:在OLAP資料庫中經常發生。

意外因素:如斷電、誤操作等引發的問題。

由於原生ClickHouse希望達到極致效能的初衷,所以在ClickHouse系統中後設資料常駐於記憶體中,這導致了ClickHouse server重啟時間非常長。因而當故障發生後,恢復的時間也很長,動輒一到兩個小時,相當於業務也要中斷一到兩個小時。當故障頻繁出現,造成的業務損失是無法估量的。

改造思路:

為了解決上述問題,在ByteHouse中採用了後設資料持久化的方案,將後設資料持久化到RocksDB, Server啟動時直接從RocksDB載入後設資料,記憶體中也僅僅存放必要的Part資訊。因此可以減少後設資料對記憶體的佔用,以及加速叢集的啟動以及故障恢復時間。

如下圖所示,後設資料持久化整體上採用了RocksDB+Meta in Memory的方式,每個Table都會對應一個RocksDB資料庫存放該表所有Part的元資訊。Table首次啟動時,從檔案系統中載入的Part後設資料將被持久化到RocksDB中;之後重啟時就可以直接從RocksDB中載入Part。每個表從RocksDB或者檔案系統載入的Part將只在記憶體中存放必要的Part資訊。在實際使用Part時,將透過記憶體中存放的Part元資訊去RocksDB中讀取並載入對應Part。

完成後設資料持久化後,在效能基本無損失的情況下,單機支援的part不再受記憶體容量的限制,可以達到100萬以上。最重要的是,故障恢復的時間顯著縮短,只需要此前的幾十分之一的時間就可以完成。例如在原生ClickHouse中需要一到兩個小時的恢復時間,在ByteHouse中只需要3分鐘,大大提高的系統的高可用能力,為業務提供了堅實保障。

三、其他方面

除了以上兩點,在ByteHouse中在其他很多方面都為高可用能力做了增強,如透過HaKafka引擎提升了資料寫入的高可用性,提升實時資料寫入的容錯率,可自動切換主備寫入;增加了監控運維平臺,實現對關鍵指標的監控、告警;增加多種問題診斷工具,能實現故障的快速定位。

對於資料分析平臺來說,穩定性是重中之重。我們對ByteHouse的高可用能力的提升是不會停止的,在極致效能的背後,力圖為使用者提供最強有力的穩定性保障。

除高可用能力之外,ByteHouse在為原生ClickHouse的企業級能力進行了全方位的增強。下一期,我們將介紹ClickHouse增強計劃之“資源隔離”,大家有興趣一定不要錯過。

來自 “ 過往記憶大資料 ”, 原文作者:ByteHouse;原文連結:https://mp.weixin.qq.com/s/yVQaXaWt1X2Fhh80Y-IGtQ,如有侵權,請聯絡管理員刪除。

相關文章