==Presto實現原理和美團的使用實踐 -
Presto實現原理和美團的使用實踐 -
http://tech.meituan.com/presto.html
Facebook的資料倉儲儲存在少量大型Hadoop/HDFS叢集。Hive是Facebook在幾年前專為Hadoop打造的一款資料倉儲工具。在以前,Facebook的科學家和分析師一直依靠Hive來做資料分析。但Hive使用MapReduce作為底層計算框架,是專為批處理設計的。但隨著資料越來越多,使用Hive進行一個簡單的資料查詢可能要花費幾分到幾小時,顯然不能滿足互動式查詢的需求。Facebook也調研了其他比Hive更快的工具,但它們要麼在功能有所限制要麼就太簡單,以至於無法操作Facebook龐大的資料倉儲。
2012年開始試用的一些外部專案都不合適,他們決定自己開發,這就是Presto。2012年秋季開始開發,目前該專案已經在超過 1000名Facebook僱員中使用,執行超過30000個查詢,每日資料在1PB級別。Facebook稱Presto的效能比Hive要好上10倍多。2013年Facebook正式宣佈開源Presto。
本文首先介紹Presto從使用者提交SQL到執行的這一個過程,然後嘗試對Presto實現實時查詢的原理進行分析和總結,最後介紹Presto在美團的使用情況。
Presto架構
Presto查詢引擎是一個Master-Slave的架構,由一個Coordinator節點,一個Discovery Server節點,多個Worker節點組成,Discovery Server通常內嵌於Coordinator節點中。Coordinator負責解析SQL語句,生成執行計劃,分發執行任務給Worker節點執行。Worker節點負責實際執行查詢任務。Worker節點啟動後向Discovery Server服務註冊,Coordinator從Discovery Server獲得可以正常工作的Worker節點。如果配置了Hive Connector,需要配置一個Hive MetaStore服務為Presto提供Hive元資訊,Worker節點與HDFS互動讀取資料。
Presto執行查詢過程簡介
既然Presto是一個互動式的查詢引擎,我們最關心的就是Presto實現低延時查詢的原理,我認為主要是下面幾個關鍵點,當然還有一些傳統的SQL優化原理,這裡不介紹了。
完全基於記憶體的平行計算
流水線
本地化計算
動態編譯執行計劃
小心使用記憶體和資料結構
類BlinkDB的近似查詢
GC控制
為了介紹上述幾個要點,這裡先介紹一下Presto執行查詢的過程
提交查詢
使用者使用Presto Cli提交一個查詢語句後,Cli使用HTTP協議與Coordinator通訊,Coordinator收到查詢請求後呼叫SqlParser解析SQL語句得到Statement物件,並將Statement封裝成一個QueryStarter物件放入執行緒池中等待執行。
SQL編譯過程
Presto與Hive一樣,使用Antlr編寫SQL語法,語法規則定義在Statement.g和StatementBuilder.g兩個檔案中。如下圖中所示從SQL編譯為最終的物理執行計劃大概分為5部,最終生成在每個Worker節點上執行的LocalExecutionPlan,這裡不詳細介紹SQL解析為邏輯執行計劃的過程,通過一個SQL語句來理解查詢計劃生成之後的計算過程。
樣例SQL:
select c1.rank, count(*) from dim.city c1 join dim.city c2 on c1.id = c2.id where c1.id > 10 group by c1.rank limit 10;
上面的SQL語句生成的邏輯執行計劃Plan如上圖所示。那麼Presto是如何對上面的邏輯執行計劃進行拆分以較高的並行度去執行完這個計劃呢,我們來看看物理執行計劃。
物理執行計劃
邏輯執行計劃圖中的虛線就是Presto對邏輯執行計劃的切分點,邏輯計劃Plan生成的SubPlan分為四個部分,每一個SubPlan都會提交到一個或者多個Worker節點上執行。
SubPlan有幾個重要的屬性planDistribution、outputPartitioning、partitionBy屬性。
PlanDistribution表示一個查詢Stage的分發方式,邏輯執行計劃圖中的4個SubPlan共有3種不同的PlanDistribution方式:Source表示這個SubPlan是資料來源,Source型別的任務會按照資料來源大小確定分配多少個節點進行執行;Fixed表示這個SubPlan會分配固定的節點數進行執行(Config配置中的query.initial-hash-partitions引數配置,預設是8);None表示這個SubPlan只分配到一個節點進行執行。在下面的執行計劃中,SubPlan1和SubPlan0 PlanDistribution=Source,這兩個SubPlan都是提供資料來源的節點,SubPlan1所有節點的讀取資料都會發向SubPlan0的每一個節點;SubPlan2分配8個節點執行最終的聚合操作;SubPlan3只負責輸出最後計算完成的資料。
OutputPartitioning屬性只有兩個值HASH和NONE,表示這個SubPlan的輸出是否按照partitionBy的key值對資料進行Shuffle。在下面的執行計劃中只有SubPlan0的OutputPartitioning=HASH,所以SubPlan2接收到的資料是按照rank欄位Partition後的資料。
完全基於記憶體的平行計算
查詢的並行執行流程
Presto SQL的執行流程如下圖所示
Cli通過HTTP協議提交SQL查詢之後,查詢請求封裝成一個SqlQueryExecution物件交給Coordinator的SqlQueryManager#queryExecutor執行緒池去執行
每個SqlQueryExecution執行緒(圖中Q-X執行緒)啟動後對查詢請求的SQL進行語法解析和優化並最終生成多個Stage的SqlStageExecution任務,每個SqlStageExecution任務仍然交給同樣的執行緒池去執行
每個SqlStageExecution執行緒(圖中S-X執行緒)啟動後每個Stage的任務按PlanDistribution屬性構造一個或者多個RemoteTask通過HTTP協議分配給遠端的Worker節點執行
Worker節點接收到RemoteTask請求之後,啟動一個SqlTaskExecution執行緒(圖中T-X執行緒)將這個任務的每個Split包裝成一個PrioritizedSplitRunner任務(圖中SR-X)交給Worker節點的TaskExecutor#executor執行緒池去執行
上面的執行計劃實際執行效果如下圖所示。
Coordinator通過HTTP協議呼叫Worker節點的 /v1/task 介面將執行計劃分配給所有Worker節點(圖中藍色箭頭)
SubPlan1的每個節點讀取一個Split的資料並過濾後將資料分發給每個SubPlan0節點進行Join操作和Partial Aggr操作
SubPlan1的每個節點計算完成後按GroupBy Key的Hash值將資料分發到不同的SubPlan2節點
所有SubPlan2節點計算完成後將資料分發到SubPlan3節點
SubPlan3節點計算完成後通知Coordinator結束查詢,並將資料傳送給Coordinator
源資料的並行讀取
在上面的執行計劃中SubPlan1和SubPlan0都是Source節點,其實它們讀取HDFS檔案資料的方式就是呼叫的HDFS InputSplit API,然後每個InputSplit分配一個Worker節點去執行,每個Worker節點分配的InputSplit數目上限是引數可配置的,Config中的query.max-pending-splits-per-node引數配置,預設是100。
分散式的Hash聚合
上面的執行計劃在SubPlan0中會進行一次Partial的聚合計算,計算每個Worker節點讀取的部分資料的部分聚合結果,然後SubPlan0的輸出會按照group by欄位的Hash值分配不同的計算節點,最後SubPlan3合併所有結果並輸出
流水線
資料模型
Presto中處理的最小資料單元是一個Page物件,Page物件的資料結構如下圖所示。一個Page物件包含多個Block物件,每個Block物件是一個位元組陣列,儲存一個欄位的若干行。多個Block橫切的一行是真實的一行資料。一個Page最大1MB,最多16*1024行資料。
節點內部流水線計算
下圖是一個Worker節點內部的計算流程圖,左側是任務的執行流程圖。
Worker節點將最細粒度的任務封裝成一個PrioritizedSplitRunner物件,放入pending split優先順序佇列中。每個
Worker節點啟動一定數目的執行緒進行計算,執行緒數task.shard.max-threads=availableProcessors() * 4,在config中配置。
每個空閒的執行緒從佇列中取出一個PrioritizedSplitRunner物件執行,如果執行完成一個週期,超過最大執行時間1秒鐘,判斷任務是否執行完成,如果完成,從allSplits佇列中刪除,如果沒有,則放回pendingSplits佇列中。
每個任務的執行流程如下圖右側,依次遍歷所有Operator,嘗試從上一個Operator取一個Page物件,如果取得的Page不為空,交給下一個Operator執行。
節點間流水線計算
下圖是ExchangeOperator的執行流程圖,ExchangeOperator為每一個Split啟動一個HttpPageBufferClient物件,主動向上一個Stage的Worker節點拉資料,資料的最小單位也是一個Page物件,取到資料後放入Pages佇列中
本地化計算
Presto在選擇Source任務計算節點的時候,對於每一個Split,按下面的策略選擇一些minCandidates
優先選擇與Split同一個Host的Worker節點
如果節點不夠優先選擇與Split同一個Rack的Worker節點
如果節點還不夠隨機選擇其他Rack的節點
對於所有Candidate節點,選擇assignedSplits最少的節點。
動態編譯執行計劃
Presto會將執行計劃中的ScanFilterAndProjectOperator和FilterAndProjectOperator動態編譯為Byte Code,並交給JIT去編譯為native程式碼。Presto也使用了Google Guava提供的LoadingCache快取生成的Byte Code。
上面的兩段程式碼片段中,第一段為沒有動態編譯前的程式碼,第二段程式碼為動態編譯生成的Byte Code反編譯之後還原的優化程式碼,我們看到這裡採用了迴圈展開的優化方法。
迴圈展開最常用來降低迴圈開銷,為具有多個功能單元的處理器提供指令級並行。也有利於指令流水線的排程。
小心使用記憶體和資料結構
使用Slice進行記憶體操作,Slice使用Unsafe#copyMemory實現了高效的記憶體拷貝,Slice倉庫參考:https://github.com/airlift/slice
Facebook工程師在另一篇介紹ORCFile優化的文章中也提到使用Slice將ORCFile的寫效能提高了20%~30%,參考:https://code.facebook.com/posts/229861827208629/scaling-the-facebook-data-warehouse-to-300-pb/
類BlinkDB的近似查詢
為了加快avg、count distinct、percentile等聚合函式的查詢速度,Presto團隊與BlinkDB作者之一Sameer Agarwal合作引入了一些近似查詢函式approx_avg、approx_distinct、approx_percentile。approx_distinct使用HyperLogLog Counting演算法實現。
GC控制
Presto團隊在使用hotspot java7時發現了一個JIT的BUG,當程式碼快取快要達到上限時,JIT可能會停止工作,從而無法將使用頻率高的程式碼動態編譯為native程式碼。
Presto團隊使用了一個比較Hack的方法去解決這個問題,增加一個執行緒在程式碼快取達到70%以上時進行顯式GC,使得已經載入的Class從perm中移除,避免JIT無法正常工作的BUG。
Presto TPCH benchmark測試
介紹了上述這麼多點,我們最關心的還是Presto效能測試,Presto中實現了TPCH的標準測試,下面的表格給出了Presto 0.60 TPCH的測試結果。直接執行presto-main/src/test/java/com/facebook/presto/benchmark/BenchmarkSuite.java。
benchmarkName cpuNanos(MILLISECONDS) inputRows inputBytes inputRows/s inputBytes/s outputRows outputBytes outputRows/s outputBytes/s count_agg 2.055ms 1.5M 12.9MB 730M/s 6.12GB/s 1 9B 486/s 4.28KB/s double_sum_agg 14.792ms 1.5M 12.9MB 101M/s 870MB/s 1 9B 67/s 608B/s hash_agg 174.576ms 1.5M 21.5MB 8.59M/s 123MB/s 3 45B 17/s 257B/s predicate_filter 68.387ms 1.5M 12.9MB 21.9M/s 188MB/s 1.29M 11.1MB 18.8M/s 162MB/s raw_stream 1.899ms 1.5M 12.9MB 790M/s 6.62GB/s 1.5M 12.9MB 790M/s 6.62GB/s top100 58.735ms 1.5M 12.9MB 25.5M/s 219MB/s 100 900B 1.7K/s 15KB/s in_memory_orderby_1.5M 1909.524ms 1.5M 41.5MB 786K/s 21.7MB/s 1.5M 28.6MB 786K/s 15MB/s hash_build 588.471ms 1.5M 25.7MB 2.55M/s 43.8MB/s 1.5M 25.7MB 2.55M/s 43.8MB/s hash_join 2400.006ms 6M 103MB 2.5M/s 42.9MB/s 6M 206MB 2.5M/s 85.8MB/s hash_build_and_join 2996.489ms 7.5M 129MB 2.5M/s 43MB/s 6M 206MB 2M/s 68.8MB/s hand_tpch_query_1 3146.931ms 6M 361MB 1.91M/s 115MB/s 4 300B 1/s 95B/s hand_tpch_query_6 345.960ms 6M 240MB 17.3M/s 695MB/s 1 9B 2/s 26B/ssql_groupby_agg_with_arithmetic 1211.444ms 6M 137MB 4.95M/s 113MB/s 2 30B 1/s 24B/s sql_count_agg 3.635ms 1.5M 12.9MB 413M/s 3.46GB/s 1 9B 275/s 2.42KB/s sql_double_sum_agg 16.960ms 1.5M 12.9MB 88.4M/s 759MB/s 1 9B 58/s 530B/s sql_count_with_filter 81.641ms 1.5M 8.58MB 18.4M/s 105MB/s 1 9B 12/s 110B/s sql_groupby_agg 169.748ms 1.5M 21.5MB 8.84M/s 126MB/s 3 45B 17/s 265B/s sql_predicate_filter 46.540ms 1.5M 12.9MB 32.2M/s 277MB/s 1.29M 11.1MB 27.7M/s 238MB/s sql_raw_stream 3.374ms 1.5M 12.9MB 445M/s 3.73GB/s 1.5M 12.9MB 445M/s 3.73GB/s sql_top_100 60.663ms 1.5M 12.9MB 24.7M/s 212MB/s 100 900B 1.65K/s 14.5KB/s sql_hash_join 4421.159ms 7.5M 129MB 1.7M/s 29.1MB/s 6M 206MB 1.36M/s 46.6MB/s sql_join_with_predicate 1008.909ms 7.5M 116MB 7.43M/s 115MB/s 1 9B 0/s 8B/s sql_varbinary_max 224.510ms 6M 97.3MB 26.7M/s 433MB/s 1 21B 4/s 93B/s sql_distinct_multi 257.958ms 1.5M 32MB 5.81M/s 124MB/s 5 112B 19/s 434B/s sql_distinct_single 112.849ms 1.5M 12.9MB 13.3M/s 114MB/s 1 9B 8/s 79B/s sql_tpch_query_1 3168.782ms 6M 361MB 1.89M/s 114MB/s 4 336B 1/s 106B/s sql_tpch_query_6 286.281ms 6M 240MB 21M/s 840MB/s 1 9B 3/s 31B/s sql_like 3497.154ms 6M 232MB 1.72M/s 66.3MB/s 1.15M 9.84MB 328K/s 2.81MB/s sql_in 80.267ms 6M 51.5MB 74.8M/s 642MB/s 25 225B 311/s 2.74KB/s sql_semijoin_in 1945.074ms 7.5M 64.4MB 3.86M/s 33.1MB/s 3M 25.8MB 1.54M/s 13.2MB/s sql_regexp_like 2233.004ms 1.5M 76.6MB 672K/s 34.3MB/s 1 9B 0/s 4B/s sql_approx_percentile_long 587.748ms 1.5M 12.9MB 2.55M/s 21.9MB/s 1 9B 1/s 15B/s sql_between_long 53.433ms 1.5M 12.9MB 28.1M/s 241MB/s 1 9B 18/s 168B/ssampled_sql_groupby_agg_with_arithmetic 1369.485ms 6M 189MB 4.38M/s 138MB/s 2 30B 1/s 21B/s sampled_sql_count_agg 11.367ms 1.5M 12.9MB 132M/s 1.11GB/s 1 9B 87/s 791B/ssampled_sql_join_with_predicate 1338.238ms 7.5M 180MB 5.61M/s 135MB/s 1 9B 0/s 6B/s sampled_sql_double_sum_agg 24.638ms 1.5M 25.7MB 60.9M/s 1.02GB/s 1 9B 40/s 365B/s stat_long_variance 26.390ms 1.5M 12.9MB 56.8M/s 488MB/s 1 9B 37/s 341B/s stat_long_variance_pop 26.583ms 1.5M 12.9MB 56.4M/s 484MB/s 1 9B 37/s 338B/s stat_double_variance 26.601ms 1.5M 12.9MB 56.4M/s 484MB/s 1 9B 37/s 338B/s stat_double_variance_pop 26.371ms 1.5M 12.9MB 56.9M/s 488MB/s 1 9B 37/s 341B/s stat_long_stddev 26.266ms 1.5M 12.9MB 57.1M/s 490MB/s 1 9B 38/s 342B/s stat_long_stddev_pop 26.350ms 1.5M 12.9MB 56.9M/s 489MB/s 1 9B 37/s 341B/s stat_double_stddev 26.316ms 1.5M 12.9MB 57M/s 489MB/s 1 9B 38/s 342B/s stat_double_stddev_pop 26.360ms 1.5M 12.9MB 56.9M/s 488MB/s 1 9B 37/s 341B/s sql_approx_count_distinct_long 35.763ms 1.5M 12.9MB 41.9M/s 360MB/s 1 9B 27/s 251B/ssql_approx_count_distinct_double 37.198ms 1.5M 12.9MB 40.3M/s 346MB/s 1 9B 26/s 241B/s
美團如何使用Presto
選擇presto的原因
2013年我們也用過一段時間的impala,當時impala不支援線上1.x的hadoop社群版,所以搭了一個CDH的小叢集,每天將大叢集的熱點資料匯入小叢集。但是hadoop叢集年前完成升級2.2之後,當時的impala還不支援2.2 hadoop版本。而Presto剛好開始支援2.x hadoop社群版,並且Presto在Facebook 300PB大資料量的環境下可以成功的得到大量使用,我們相信它在美團也可以很好的支撐我們實時分析的需求,於是決定先上線測試使用一段時間。
部署和使用形式
考慮到兩個原因:1、由於Hadoop叢集主要是夜間完成昨天的計算任務,白天除了日誌寫入外,叢集的計算負載較低。2、Presto Worker節點與DataNode節點佈置在一臺機器上可以本地計算。因此我們將Presto部署到了所有的DataNode機器上,並且夜間停止Presto服務,避免佔用叢集資源,夜間基本也不會有使用者查詢資料。
Presto二次開發和BUG修復
年後才正式上線Presto查詢引擎,0.60版本,使用的時間不長,但是也遇到了一些問題:
美團的Hadoop使用的是2.2版本,並且開啟了Security模式,但是Presto不支援Kerberos認證,我們修改了Presto程式碼,增加了Kerberos認證的功能。
Presto還不支援SQL的隱式型別轉換,而Hive支援,很多自助查詢的使用者習慣了Hive,導致使用Presto時都會出現表示式中左右變數型別不匹配的問題,我們增加了隱式型別轉換的功能,大大減小了使用者SQL出錯的概率。
Presto不支援查詢lzo壓縮的資料,需要修改hadoop-lzo的程式碼。
解決了一個having子句中有distinct欄位時查詢失敗的BUG,並反饋了Presto團隊 https://github.com/facebook/presto/pull/1104
所有程式碼的修改可以參考我們在github上的倉庫 https://github.com/MTDATA/presto/commits/mt-0.60
實際使用效果
這裡給出一個公司內部開放給分析師、PM、工程師進行自助查詢的查詢中心的一個測試報告。這裡選取了平時的5000個Hive查詢,通過Presto查詢的對比見下面的表格。
自助查詢sql數
hive
presto
presto/hive
1424
154427s
27708s
0.179424582489
參考
Presto官方文件 http://prestodb.io/
Facebook Presto團隊介紹Presto的文章https://www.facebook.com/notes/facebook-engineering/presto-interacting-with-petabytes-of-data-at-facebook/10151786197628920
SlideShare兩個分享Presto 的PPThttp://www.slideshare.net/zhusx/presto-overview?from_search=1http://www.slideshare.net/frsyuki/hadoop-source-code-reading-15-in-japan-presto
相關文章
- Flutter原理與美團的實踐Flutter
- 美團BERT的探索和實踐
- Java執行緒池實現原理及其在美團業務中的實踐Java執行緒
- Flink CDC MongoDB Connector 的實現原理和使用實踐MongoDB
- Presto在滴滴的探索與實踐REST
- iOS底層-KVC使用實踐以及實現原理iOS
- 美團儲存雲原生探索和實踐
- 深入 Go 的 Map 使用和實現原理Go
- KVO的使用和底層實現原理
- 評書:《美團機器學習實踐》機器學習
- 美團DSP廣告策略實踐
- 聊聊微前端的原理和實踐前端
- Druid SQL和Security在美團點評的實踐UISQL
- 美團針對Redis Rehash機制的探索和實踐Redis
- 使用BottomSheetBehavior實現美團拖拽效果
- Redis核心原理與實踐--列表實現原理之ziplistRedis
- 分散式鎖實現原理與最佳實踐分散式
- 美團配送資料治理實踐
- Flutter Web在美團外賣的實踐FlutterWeb
- 前端路由的原理和實現前端路由
- 美團一面:說說synchronized的實現原理?問麻了。。。。synchronized
- Pod和容器的LimitRange原理和實踐總結MIT
- Redis核心原理與實踐--列表實現原理之quicklist結構RedisUI
- Redis、Zookeeper實現分散式鎖——原理與實踐Redis分散式
- MRCP在美團語音互動中的實踐和應用
- Nebula Flink Connector 的原理和實踐
- go-slice實現的使用和基本原理Go
- 《美團機器學習實踐》—— 讀後總結機器學習
- Flink在美團的實踐與應用
- 美團深度學習系統的工程實踐深度學習
- 美團多場景建模的探索與實踐
- KVO使用及實現原理
- Presto 在位元組跳動的內部實踐與優化REST優化
- RocketMQ的原理與實踐MQ
- JavaScript中使用import 和require打包後實現原理JavaScriptImportUI
- Ingress-nginx工作原理和實踐Nginx
- 【GoLang 那點事】深入 Go 的 Map 使用和實現原理Golang
- 冷飯新炒:理解JWT的實現原理和基本使用JWT