Apache Hudi和Presto的前世今生

愛喝啤酒的雷神發表於2020-09-22

一篇由Apache Hudi PMC Bhavani Sudha Saktheeswaran和AWS Presto團隊工程師Brandon Scheller分享Apache Hudi和Presto整合的一篇文章。

1. 概述

Apache Hudi 是一個快速迭代的資料湖儲存系統,可以幫助企業構建和管理PB級資料湖,Hudi通過引入upsertsdeletes和增量查詢等原語將流式能力帶入了批處理。這些特性使得統一服務層可提供更快、更新鮮的資料。Hudi表可儲存在Hadoop相容的分散式檔案系統或者雲上物件儲存中,並且很好的整合了 Presto, Apache Hive, Apache SparkApache Impala。Hudi開創了一種新的模型(資料組織形式),該模型將檔案寫入到一個更受管理的儲存層,該儲存層可以與主流查詢引擎進行互操作,同時在專案演變方面有了一些有趣的經驗。

本部落格討論Presto和Hudi整合的演變,同時討論Presto-Hudi查詢即將到來的檔案Listing和查詢計劃優化。

2. Apache Hudi

Apache Hudi(簡稱Hudi)提供在DFS上儲存超大規模資料集,同時使得流式處理如果批處理一樣,該實現主要是通過如下兩個原語實現。

  • Update/Delete記錄: Hudi支援更新/刪除記錄,使用檔案/記錄級別索引,同時對寫操作提供事務保證。查詢可獲取最新提交的快照來產生結果。
  • Change Streams: Hudi也支援增量獲取表中所有更新/插入/刪除的記錄,從指定時間點開始進行增量查詢。

上圖說明了Hudi的原語,配合這些原語可以直接在DFS抽象之上解鎖流/增量處理功能。這和直接從Kafka Topic消費事件,然後使用狀態儲存來增量計算臨時結果類似,該架構有很多優點。

  • 提升效率: 攝取資料經常需要處理更新(例如CDC),刪除(法律隱私條例)以及強制主鍵約束來確保資料質量。然而由於缺乏標準工具,資料工程師往往需要使用批處理作業來重新處理整天的事件或者每次執行時重新載入上游所有資料,這會導致浪費大量的資源。由於Hudi支援記錄級別更新,只需要重新處理表中更新/刪除的記錄,大大提升了處理效率,而無需重寫表的所有分割槽或事件。
  • 更快的ETL/派生管道: 還有一種普遍情況,即一旦從外部源攝取資料,就使用Apache Spark/Apache Hive或任何其他資料處理框架構建派生的資料管道,以便為各種用例(如資料倉儲、機器學習功能提取,甚至僅僅是分析)構建派生資料管道。通常該過程再次依賴於以程式碼或SQL表示的批處理作業,批量處理所有輸入資料並重新計算所有輸出結果。通過使用增量查詢(而不是常規快照查詢)查詢一個或多個輸入表,從而只處理來自上游表的增量更改,然後對目標派生表執行upsert或delete操作,可以顯著加快這種資料管道的速度,如第一個圖所示。
  • 更新鮮的資料訪問: 通常我們會新增更多的資源(例如記憶體)來提高效能指標(例如查詢延遲)。Hudi從根本上改變了資料集的傳統管理方式,這可能是大資料時代出現以來的第一次。增量地進行批處理可以使得管道執行時間少得多。相比以前的資料湖,現在資料可更快地被查詢。
  • 統一儲存: 基於以上三個優點,在現有資料湖上進行更快、更輕的處理意味著不需要僅為了獲得接近實時資料的訪問而使用專門儲存或資料集市。

2.1 Hudi表和查詢型別

2.1.1 表型別

Hudi支援如下兩種型別表

Copy On Write (COW): 使用列式儲存格式(如parquet)儲存資料,在寫入時同步更新版本/重寫資料。

Merge On Read (MOR): 使用列式儲存格式(如parquet)+ 行存(如Avro)儲存資料。更新被增量寫入delta檔案,後續會進行同步/非同步壓縮產生新的列式檔案版本。

下表總結了兩種表型別的trade-off。

Trade-off CopyOnWrite MergeOnRead
資料延遲 更高 更低
更新開銷 (I/O) 高(重寫整個parquet檔案) 更低 (寫入增量日誌檔案)
Parquet檔案大小 更小(高update (I/0) 開銷) 更大 (低updaet開銷)
寫放大 更低 (決定與Compaction策略)

2.1.2 查詢型別

Hudi支援如下查詢型別

快照查詢: 查詢給定commit/compaction的表的最新快照。對於Merge-On-Read表,通過合併基礎檔案和增量檔案來提供近實時資料(分鐘級);對於Copy-On-Write表,對現有Parquet表提供了一個可插拔替換,同時提供了upsert/delete和其他特性。

增量查詢: 查詢給定commit/compaction之後新寫入的資料,可為增量管道提供變更流。

讀優化查詢: 查詢給定commit/compaction的表的最新快照。只提供最新版本的基礎/列式資料檔案,並可保證與非Hudi表相同的列式查詢效能。

下表總結了不同查詢型別之間的trade-off。

Trade-off 快照 讀優化
資料延遲 更低 更高
查詢延遲 COW: 與parquet表相同。MOR: 更高 (合併基礎/列式檔案和行存增量檔案) 與COW快照查詢有相同列式查詢效能

下面動畫簡單演示了插入/更新如何儲存在COW和MOR表中的步驟,以及沿著時間軸的查詢結果。其中X軸表示每個查詢型別的時間軸和查詢結果。

注意,作為寫操作的一部分,表的commit被完全合併到表中。對於更新,包含該記錄的檔案將使用所有已更改記錄的新值重新寫入。對於插入,優先會將記錄寫入到每個分割槽路徑中最小檔案,直到它達到配置的最大大小。其他剩餘的記錄都將寫入新的檔案id組中,會保證再次滿足大小要求。

MOR和COW在攝取資料方面經歷了相同步驟。更新將寫入屬於最新檔案版本的最新日誌(delta)檔案,而不進行合併。對於插入,Hudi支援2種模式:

  • 寫入log檔案 - 當Hudi表可索引日誌檔案(例如HBase索引和即將到來的記錄級別索引)。
  • 寫入parquet檔案 - 當Hudi表不能索引日誌檔案(例如布隆索引)。

增量日誌檔案後面通過時間軸中的壓縮(compaction)操作與基礎parquet檔案合併。這種表型別是最通用、高度高階的,為寫入提供很大靈活性(指定不同的壓縮策略、處理突發性寫入流量等)和查詢提供靈活性(例如權衡資料新鮮度和查詢效能)。

3. Presto

3.1 早期Presto整合方案

Hudi設計於2016年中後期。那時我們就著手與Hadoop生態系統中的查詢引擎整合。為了在Presto中實現這一點,正如社群建議的那樣,我們引入了一個自定義註解@UseFileSplitsFromInputFormat。任何註冊的Hive表(如果有此註解)都將通過呼叫相應的inputformat的getSplits()方法(而不是Presto Hive原生切片載入邏輯)來獲取切片。通過Presto查詢的Hudi表,只需簡單呼叫HoodieParquetInputFormat.getSplits(). 整合非常簡單隻,需將相應的Hudi jar包放到<presto_install>/plugin/hive-hadoop2/目錄下。它支援查詢COW Hudi表,並讀取MOR Hudi表的優化查詢(只從壓縮的基本parquet檔案中獲取資料)。在Uber,這種簡單的整合已經支援每天超過100000次的Presto查詢,這些查詢來自使用Hudi管理的HDFS中的100PB的資料(原始資料和模型表)。

3.2 移除InputFormat.getSplits()

呼叫inputformat.getSplits()是個簡單的整合,但是可能會導致對NameNode的大量RPC呼叫,以前的整合方法有幾個缺點。

  • 從Hudi返回的InputSplits不夠。Presto需要知道每個InputSplit返回的檔案狀態和塊位置。因此,對於每次切片乘以載入的分割槽數,這將增加2個額外的NameNode RPC呼叫。有時,NameNode承受很大的壓力,會觀察到背壓。
  • 此外對於Presto Split計算中載入的每個分割槽(每個loadPartition()呼叫),HoodieParquetInputFormat.getSplits()將被呼叫。這導致了冗餘的Hudi表後設資料Listing,其實可以被屬於從查詢掃描的表的所有分割槽複用。

我們開始重新思考Presto-Hudi的整合方案。在Uber,我們通過在Hudi上新增一個編譯時依賴項來改變這個實現,並在BackgroundHiveSplitLoader建構函式中例項化HoodieTableMetadata一次。然後我們利用Hudi Api過濾分割槽檔案,而不是呼叫HoodieParquetInputFormat.getSplits(),這大大減少了該路徑中NameNode呼叫次數。

為了推廣這種方法並使其可用於Presto-Hudi社群,我們在Presto的DirectoryLister介面中新增了一個新的API,它將接受PathFilter物件。對於Hudi表,我們提供了這個PathFilter物件HoodieROTablePathFilter,它將負責過濾為查詢Hudi表而預先列出的檔案,並獲得與Uber內部解決方案相同的結果。

這一變化是從0.233版本的Presto開始提供,依賴Hudi版本為0.5.1-incubating。由於Hudi現在是一個編譯時依賴項,因此不再需要在plugin目錄中提供Hudi jar檔案。

3.3 Presto支援查詢Hudi MOR表

我們看到社群有越來越多人對使用Presto支援Hudi MOR表的快照查詢感興趣。之前Presto只支援查詢Hudi表讀優化查詢(純列式資料)。隨著該PR https://github.com/prestodb/presto/pull/14795被合入,現在Presto(0.240及後面版本)已經支援查詢MOR表的快照查詢,這將通過在讀取時合併基本檔案(parquet資料)和日誌檔案(avro資料)使更新鮮的資料可用於查詢。

在Hive中,這可以通過引入一個單獨的InputFormat類來實現,該類提供了處理切片的方法,並引入了一個新的RecordReader類,該類可以掃描切片以獲取記錄。對於使用Hive查詢MOR Hudi表,在Hudi中已經有類似類可用:

  • InputFormat - org.apache.hudi.hadoop.realtime.HoodieParquetRealtimeInputFormat
  • InputSplit - org.apache.hudi.hadoop.realtime.HoodieRealtimeFileSplit
  • RecordReader - org.apache.hudi.hadoop.realtime.HoodieRealtimeRecordReader 在Presto中支援這一點需要理解Presto如何從Hive表中獲取記錄,並在該層中進行必要的修改。因為Presto使用其原生的ParquetPageSource而不是InputFormat的記錄讀取器,Presto將只顯示基本Parquet檔案,而不顯示來自Hudi日誌檔案的實時更新,後者是avro資料(本質上與普通的讀優化Hudi查詢相同)。

為了讓Hudi實時查詢正常工作,我們確定並進行了以下必要更改:

  • 向可序列化HiveSplit新增額外的後設資料欄位以儲存Hudi切片資訊。Presto-Hive將其拆分轉換為可序列化的HiveSplit以進行傳遞。因為它需要標準的切片,所以它將丟失從FileSplit擴充套件的複雜切片中包含的任何額外資訊的上下文。我們的第一個想法是簡單地新增整個切片作為HiveSplit的一個額外的欄位。但這並不起作用,因為複雜的切片不可序列化,而且還會複製基本切片資料。

    相反我們新增了一個CustomSplitConverter介面。它接受一個自定義切片並返回一個易於序列化的String->String Map,其中包含來自自定義切片的額外資料。為了實現這點,我們還將此Map作為一個附加欄位新增到Presto的HiveSplit中。我們建立了HudiRealtimeSplitConverter來實現用於Hudi實時查詢的CustomSplitConverter介面。

  • 從HiveSplit的額外後設資料重新建立Hudi切片。現在我們已經掌握了HiveSplit中包含的自定義切片的完整資訊,我們需要在讀取切片之前識別並重新建立HoodieRealtimeFileSplitCustomSplitConverter介面還有另一個方法,它接受普通的FileSplit和額外的split資訊對映,並返回實際複雜的FileSplit,在本例中是HudiRealtimeFileSplit

  • 使用HoodieParquetRealtimeInputFormat中的HoodieRealtimeRecordReader讀取重新建立的HoodieRealtimeFileSplit。Presto需要使用新的記錄讀取器來正確處理HudiRealtimeFileSplit中的額外資訊。為此,我們引入了與第一個註釋類似的另一個註解@UseRecordReaderFromInputFormat。這指示Presto使用Hive記錄游標(使用InputFormat的記錄讀取器)而不是PageSource。Hive記錄游標可以理解重新建立的自定義切片,並基於自定義切片設定其他資訊/配置。

有了這些變更,Presto使用者便可查詢Hudi MOR表中更新鮮的資料了。

4. 下一步計劃

下面是一些很有意思的工作(RFCs),可能也需要在Presto中支援。

RFC-12: Bootstrapping Hudi tables efficiently

ApacheHudi維護每個記錄的後設資料,使我們能夠提供記錄級別的更新、唯一的鍵語義和類似資料庫的更改流。然而這意味著,要利用Hudi的upsert和增量處理能力,使用者需要重寫整個資料集,使其成為Hudi表。這個RFC提供了一種機制來高效地遷移他們的資料集,而不需要重寫整個資料集,同時還提供了Hudi的全部功能。

這將通過在新的引導Hudi表中引用外部資料檔案(來自源表)的機制來實現。由於資料可能駐留在外部位置(引導資料)或Hudi表的basepath(最近的資料)下,FileSplits將需要在這些位置上儲存更多的後設資料。這項工作還將利用並建立在我們當前新增的Presto MOR查詢支援之上。

支援Hudi表增量和時間點時間旅行查詢

增量查詢允許我們從源Hudi表中提取變更日誌。時間點查詢允許在時間T1和T2之間獲取Hudi表的狀態。這些已經在Hive和Spark中得到支援。我們也在考慮在Presto中支援這個特性。

在Hive中,通過在JobConf中設定一些配置來支援增量查詢,例如-query mode設定為INCREMENTAL、啟動提交時間和要使用的最大提交數。在Spark中有一個特定的實現來支援增量查詢—IncrementalRelation。為了在Presto中支援這一點,我們需要一種識別增量查詢的方法。如果Presto不向hadoop Configuration物件傳遞會話配置,那麼最初的想法是在metastore中將同一個表註冊為增量表。然後使用查詢謂詞獲取其他詳細資訊,如開始提交時間、最大提交時間等。

RFC-15: 查詢計劃和Listing優化

Hudi write client和Hudi查詢需要對檔案系統執行listStatus操作以獲得檔案系統的當前檢視。在Uber,HDFS基礎設施為Listing做了大量優化,但對於包含數千個分割槽的大型資料集以及每個分割槽在雲/物件儲存上有數千個檔案的大型資料集來說,這可能是一個昂貴的操作。上面的RFC工作旨在消除Listing操作,提供更好的查詢效能和更快的查詢,只需將Hudi的時間軸後設資料逐漸壓縮到表狀態的快照中。

該方案旨在解決:

  • 儲存和維護最新檔案的後設資料
  • 維護表中所有列的統計資訊,以幫助在掃描之前有效地修剪檔案,這可以在引擎的查詢規劃階段使用。

為此,Presto也需要一些變更。我們正在積極探索在查詢規劃階段利用這些後設資料的方法。這將是對Presto-Hudi整合的重要補充,並將進一步降低查詢延遲。

記錄級別索引

Upsert是Hudi表上一種流行的寫操作,它依賴於索引將傳入記錄標記為Upsert。HoodieIndex在分割槽或非分割槽資料集中提供記錄id到檔案id的對映,實現有BloomFilters/Key ranges(用於臨時資料)和Apache HBase(用於隨機更新)支援。許多使用者發現Apache HBase(或任何類似的key-value-store-backed索引)很昂貴,並且增加了運維開銷。該工作試圖提出一種新的索引格式,用於記錄級別的索引,這是在Hudi中實現的。Hudi將儲存和維護記錄級索引(有HFile、RocksDB等可插拔儲存實現支援)。這將被writer(攝取)和reader(攝取/查詢)使用,並將顯著提高upsert效能,而不是基於join的方法,或者是用於支援隨機更新工作負載的布隆索引。這是查詢引擎在列出檔案之前修剪檔案時可以利用這些資訊的另一個領域。我們也在考慮一種在查詢時利用Presto中的後設資料的方法。

5. 總結

像Presto這樣的查詢引擎是使用者瞭解Hudi優勢的入口。隨著不斷增長的社群和活躍的開發路線圖,Hudi中有許多有趣的工作,由於Hudi在上面的工作上投入了大量精力,因此只需要與Presto這樣的系統進行深度整合。為此,我們期待著與Presto社群合作。我們歡迎您的建議反饋,並鼓勵您作出貢獻 ,與我們聯絡。

英文連結:https://prestodb.io/blog/2020/08/04/prestodb-and-hudi

相關文章