滴滴基於Clickhouse構建新一代日誌儲存系統
ClickHouse 是2016年開源的用於實時資料分析的一款高效能列式分散式資料庫,支援向量化計算引擎、多核平行計算、高壓縮比等功能,在分析型資料庫中單表查詢速度是最快的。2020年開始在滴滴內部大規模地推廣和應用,服務網約車和日誌檢索等核心平臺和業務。本文主要介紹滴滴日誌檢索場景從 ES 遷移到 CK 的技術探索。
背景
此前,滴滴日誌主要儲存於 ES 中。然而,ES 的分詞、倒排和正排等功能導致其寫入吞吐量存在明顯瓶頸。此外,ES 需要儲存原始文字、倒排索引和正排索引,這增加了儲存成本,並對記憶體有較高要求。隨著滴滴資料量的不斷增長,ES 的效能已無法滿足當前需求。
在追求降低成本和提高效率的背景下,我們開始尋求新的儲存解決方案。經過研究,我們決定採用 CK 作為滴滴內部日誌的儲存支援。據瞭解,京東、攜程、B站等多家公司在業界的實踐中也在嘗試用 CK 構建日誌儲存系統。
挑戰
面臨的挑戰主要來自下面三個方面:
資料量大:每天會產生 PB 級別的日誌資料,儲存系統需要穩定地支撐 PB 級資料的實時寫入和儲存。
查詢場景多:在一個時間段內的等值查詢、模糊查詢及排序場景等,查詢需要掃描的資料量較大且查詢都需要在秒級返回。
QPS 高:在 PB 級的資料量下,對 Trace 查詢同時要滿足高 QPS 的要求。
為什麼選 Clickhouse
大資料量:CK 的分散式架構支援動態擴縮容,可支撐海量資料儲存。
寫入效能:CK 的 MergeTree 表的寫入速度在200MB/s,具有很高吞吐,寫入基本沒有瓶頸。
查詢效能:CK 支援分割槽索引和排序索引,具有很高的檢索效率,單機每秒可掃描數百萬行的資料。
儲存成本:CK 基於列式儲存,資料壓縮比很高,同時基於HDFS做冷熱分離,能夠進一步地降低儲存成本。
架構升級
舊的儲存架構下需要將日誌資料雙寫到 ES 和 HDFS 兩個儲存上,由ES提供實時的查詢,Spark 來分析 HDFS 上的資料。這種設計要求使用者維護兩條獨立的寫入鏈路,導致資源消耗翻倍,且操作複雜性增加。
在新升級的儲存架構中,CK 取代了 ES 的角色,分別設有 Log 叢集和 Trace 叢集。Log 叢集專門儲存明細日誌資料,而 Trace 叢集則專注於儲存 trace 資料。這兩個叢集在物理上相互隔離,有效避免了 log 的高消耗查詢(如 like 查詢)對 trace 的高 QPS 查詢產生干擾。此外,獨立的 Trace 叢集有助於防止trace資料過度分散。
日誌資料透過 Flink 直接寫入 Log 叢集,並透過 Trace 物化檢視從 log 中提取 trace 資料,然後利用分散式表的非同步寫入功能同步至 Trace 叢集。這一過程不僅實現了 log 與 trace 資料的分離,還允許 Log 叢集的後臺執行緒定期將冷資料同步到 HDFS 中。
新架構僅涉及單一寫入鏈路,所有關於 log 資料冷儲存至 HDFS 以及 log 與 trace 分離的處理均由 CK 完成,從而為使用者遮蔽了底層細節,簡化了操作流程。
考慮到成本和日誌資料特點,Log 叢集和 Trace 叢集均採用單副本部署模式。其中,最大的 Log 叢集有300多個節點,Trace 叢集有40多個節點。
儲存設計
儲存設計是提升效能最關鍵的部分,只有經過最佳化的儲存設計才能充分發揮 CK 強大的檢索效能。借鑑時序資料庫的理念,我們將 logTime 調整為以小時為單位進行取整,並在儲存過程中按照小時順序排列資料。這樣,在進行其他排序鍵查詢時,可以快速定位到所需的資料塊。例如,查詢一個小時內資料時,最多隻需讀取兩個索引塊,這對於處理海量日誌檢索至關重要。
以下是我們根據日誌查詢特性和 CK 執行邏輯制定的儲存設計方案,包括 Log 表、Trace 表和 Trace 索引表:
Log 表
Log 表旨在為明細日誌提供儲存和查詢服務,它位於 Log 叢集中,並由 Flink 直接從 Pulsar 消費資料後寫入。每個日誌服務都對應一張 Log 表,因此整個 Log 叢集可能包含數千張 Log 表。其中,最大的表每天可能會生成 PB 級別的資料。鑑於 Log 叢集面臨表數量眾多、單表資料量大以及需要進行冷熱資料分離等挑戰,以下是針對 Log 表的設計思路:
分割槽鍵:根據查詢特點,幾乎所有的 sql 都只會查1小時的資料,但這裡只能按天分割槽,小時分割槽導致 Part 過多及 HDFS 小檔案過多的問題。
排序鍵:為了快速定位到某一個小時的資料,基於 logTime 向小時取整物化了一個新的欄位 logTimeHour,將 logTimeHour 作為第一排序鍵,這樣就能將資料範圍鎖定在小時級別,由於大部分查詢都會指定上 odinLeaf、uri、traceid,依據基數從小到大分別將其作為第二、三、四排序鍵,這樣查詢某個 traceid 的資料只需要讀取少量的索引塊,經過上述的設計所有的等值查詢都能達到毫秒級。
Map 列:引入了 Map 型別,實現動態的 Scheme,將不需要用來過濾的列統統放入 Map 中,這樣能有效減少 Part 的檔案數,避免 HDFS 上出現大量小檔案。
Trace 表
Trace 表是用來提供 trace 相關的查詢,這類查詢對 QPS 要求很高,建立在 Trace 叢集。資料來源於從 Log 表中提取的 trace 記錄。Trace 表只會有一張,所有的 Log 表都會將 trace 記錄提取到這張 Trace 表,實現的方式是 Log 表透過物化檢視觸發器跨叢集將資料寫到 Trace 表中。
Trace 表的難點在於查詢速度快且 QPS 高,以下是 Trace 表的設計思路:
AggregatingMergeTree:Trace 表採用了聚合表引擎,會按 traceid 進行聚合,能很大程度的聚合 trace 資料,壓縮比在5:1,能極大地提升 Trace 表的檢索速度。
分割槽鍵和排序鍵:與 Log 的設計類似。
index_granularity:這個引數是用來控制稀疏索引的粒度,預設是8192,減小這個引數是為了減少資料塊中無效的資料掃描,加快 traceid 的檢索速度。
Trace 索引表
Trace 索引表的主要作用是加快 order_id、driver_id、driver_phone 等欄位查詢 traceid 的速度。為此,我們給需要加速的欄位建立了一個聚合物化檢視,以提高查詢速度。資料則是透過為 Log 表建立相應的物化檢視觸發器,將資料提取到 Trace 索引表中。
以下是建立 Trace 索引表的語句:
儲存設計的核心目標是提升查詢效能。接下來,我將介紹從 ES 遷移至 CK 過程中,在這一架構下所面臨的穩定性問題及其解決方法。
穩定性之路
支撐日誌場景對 CK 來說是非常大的挑戰,面臨龐大的寫入流量及超大叢集規模,經過一年的建設,我們能夠穩定的支撐重點節假日的流量高峰,下面的篇幅主要是介紹了在支撐日誌場景過程中,遇到的一些問題。
大叢集小表資料碎片化問題
在 Log 叢集中,90%的 Log 表流量低於10MB/s。若將所有表的資料都寫入數百個節點,會導致大量小表資料碎片化問題。這不僅影響查詢效能,還會對整個叢集效能產生負面影響,併為冷資料儲存到 HDFS 帶來大量小檔案問題。
為解決大規模叢集帶來的問題,我們根據表的流量大小動態分配寫入節點。每個表分配的寫入節點數量介於2到叢集最大節點數之間,均勻分佈在整個叢集中。Flink 透過介面獲取表的寫入節點列表,並將資料寫入相應的 CK 節點,有效解決了大規模叢集資料分散的問題。
寫入限流及寫入效能提升
在滴滴日誌場景中,晚高峰和節假日的流量往往會大幅增加。為避免高峰期流量過大導致叢集崩潰,我們在 Flink 上實現了寫入限流功能。該功能可動態調整每張表寫入叢集的流量大小。當流量超過叢集上限時,我們可以迅速降低非關鍵表的寫入流量,減輕叢集壓力,確保重保表的寫入和查詢不受影響。
同時為了提升把脈的寫入效能,我們基於 CK 原生 TCP 協議開發了 Native-connector。相比於 HTTP 協議,Native-connector 的網路開銷更小。此外,我們還自定義了資料型別的序列化機制,使其比之前的 Parquet 型別更高效。啟用 Native-connector 後,寫入延遲率從之前的20%降至5%,整體寫入效能提升了1.2倍。
HDFS 冷熱分離的效能問題
用 HDFS 來儲存冷資料,在使用的過程中出現以下問題:
服務重啟變得特別慢且 Sys cpu 被打滿,原因是在服務重啟的過程中需要併發的載入 HDFS 上 Part 的後設資料,而 libhdfs3 庫併發讀 HDFS 的效能非常差,每當讀到檔案末尾都會丟擲異常列印堆疊,產生了大量的系統呼叫。
當寫入歷史分割槽的資料時,資料不會落盤,而是直接往 HDFS 上寫,寫入效能很差,並且直接寫到 HDFS 的資料還需要拉回本地 merge,進一步降低了 merge 的效能。
本地的 Part 路徑和 HDFS 的路徑是透過 uuid 來對映的,所有表的資料都是儲存在 HDFS 的同一路徑下,導致達到了 HDFS 目錄檔案數 100w 的限制。
HDFS 上的 Part 檔案路徑對映關係是儲存在本地的,如果出現節點故障,那麼檔案路徑對映關係將會丟失,HDFS 上的資料丟失且無法被刪除。
為此我們對 HDFS 冷熱分離功能進行了比較大的改造來解決上面的問題,解決 libhdfs3 庫併發讀 HDFS 的問題並在本地快取 HDFS 的 Part 後設資料檔案,服務的啟動速度由原來的1小時到1分鐘。
同時禁止歷史資料直接寫 HDFS ,必須先寫本地,merge 之後再上傳到 HDFS ,最後對 HDFS 的儲存路徑進行改造。由原來資料只儲存在一個目錄下改為按 cluster/shard/database/table/ 進行劃分,並按表級別備份本地的路徑對映關係到 HDFS。這樣一來,當節點故障時,可以透過該備份恢復 HDFS 的資料。
收益
在日誌場景中,我們已經成功完成了從 ES 到 CK 的遷移。目前,CK 的日誌叢集規模已超過400個物理節點,寫入峰值流量達到40+GB/s,每日查詢量約為1500萬次,支援的 QPS 峰值約為200。相較於 ES,CK 的機器成本降低了30%。
查詢速度相比 ES 提高了約4倍。下圖展示了 bamailog 叢集和 bamaitrace 叢集的 P99 查詢耗時情況,基本都在1秒以內。
總結
將日誌從 ES 遷移至 CK 不僅可以顯著降低儲存成本,還能提供更快的查詢體驗。經過一年多的建設和最佳化,系統的穩定性和效能都有了顯著提升。然而,在處理模糊查詢時,叢集的資源消耗仍然較大。未來,我們將繼續探索二級索引、zstd 壓縮以及存算分離等技術手段,以進一步提升日誌檢索效能。
來自 “ 滴滴技術 ”, 原文作者:鍾遠開;原文連結:https://server.it168.com/a2024/0306/6841/000006841496.shtml,如有侵權,請聯絡管理員刪除。
相關文章
- 基於滴滴雲搭 SeaweedFS 儲存系統
- 基於Ceph物件儲存構建實踐物件
- 基於MRS-ClickHouse構建使用者畫像系統方案介紹
- linux系統伺服器,nginx日誌切割儲存教程。Linux伺服器Nginx
- 基於AWS-ELK部署系統日誌告警系統
- 基於 JuiceFS 構建高校 AI 儲存方案:高併發、系統穩定、運維簡單UIAI運維
- go基於grpc構建微服務框架-結構化日誌輸出GoRPC微服務框架
- 分散式日誌儲存架構程式碼實踐分散式架構
- python日誌怎麼儲存Python
- lumen cli日誌和普通日誌分開儲存
- Vector + ClickHouse 收集日誌
- 基於開源軟體構建儲存解決方案的思考
- SpringBoot開發案例構建分散式日誌處理系統Spring Boot分散式
- 基於第三方CocoaLumberjack(DDLog)做儲存不同分類的日誌
- ClickHouse原始碼筆記6:探究列式儲存系統的排序原始碼筆記排序
- 滴滴Ceph分散式儲存系統優化之鎖優化分散式優化
- 基於多雲構建監控告警系統
- ClickHouse(16)ClickHouse日誌引擎Log詳細解析
- Laravel 使用 Elasticsearch 作為日誌儲存LaravelElasticsearch
- PG wal 日誌的物理儲存分析
- 你還用ES存請求日誌?ClickHouse+Vector打造最強Grafana日誌分析看板Grafana
- 使用 Nginx 構建前端日誌統計服務Nginx前端
- 基於Hyperf + Vue + Element 構建的後臺管理系統(內建聊天系統)Vue
- 基於Raft的分散式MySQL Binlog儲存系統開源Raft分散式MySql
- 六、層次結構儲存系統
- 如何使用NodeJS構建基於RPC的API系統NodeJSRPCAPI
- ClickHouse與威脅日誌分析
- 日誌系統
- 新一代日誌型系統在 SOFAJRaft 中的應用Raft
- 儲存系統
- Laravel 5.6+ 使用 MongoDB 儲存框架日誌LaravelMongoDB框架
- 使用 Easysearch,日誌儲存少一半
- 我們NetCore下日誌儲存設計NetCore
- 滴滴Ceph分散式儲存系統最佳化之鎖最佳化分散式
- grafana/loki:用於日誌聚合的系統GrafanaLoki
- QuillCMS – 基於Nodejs、Nuxtjs、MongoDB構建內容管理系統UINodeJSUXMongoDB
- 「譯」如何使用 NodeJS 構建基於 RPC 的 API 系統NodeJSRPCAPI
- 基於MFS高可用的分散式儲存架構分散式架構