個推技術分享:效能提升60%↑ 成本降低50%↓ Spark效能調優看這篇就夠了!
Spark是目前主流的大資料計算引擎,功能涵蓋了大資料領域的離線批處理、SQL類處理、流式/實時計算、機器學習、圖計算等各種不同型別的計算操作,應用範圍與前景非常廣泛。作為一種 記憶體計算框架,Spark 運算速度快,並能夠滿足UDF、大小表Join、多路輸出等多樣化的資料計算和處理需求。
作為國內專業的資料智慧服務商, 個推從早期的1.3版本便引入Spark,並基於Spark建設數倉,進行大規模資料的離線和實時計算。由於Spark 在2.x版本之前的最佳化重心在計算引擎方面,而在後設資料管理方面並未做重大改進和升級。因此個推仍然使用Hive進行後設資料管理,採用 Hive後設資料管理+ Spark計算引擎的大資料架構,以支撐自身大資料業務發展。個推還將Spark廣泛應用到報表分析、機器學習等場景中,為行業客戶和政府部門提供 實時人口洞察、群體畫像構建等服務。
▲個推在實際業務場景中,分別使用SparkSQL 和 HiveSQL對一份3T資料進行了計算,上圖展示了跑數速度。資料顯示:在鎖死佇列(120G記憶體,<50core)前提下, SparkSQL2.3 的計算速度是Hive1.2 的5-10倍。
對企業來講,效率和成本始終是其進行海量資料處理和計算時所必須關注的問題。如何充分發揮Spark的優勢,在進行大資料作業時真正實現降本增效呢?個推將多年積累的 Spark效能調優妙招進行了總結,與大家分享。
Spark效能調優-基礎篇
眾所周知,正確的引數配置對提升Spark的使用效率具有極大助力。因此, 針對 不瞭解底層原理的Spark使用者,我們提供了可以直接抄作業的引數配置模板,幫助相關資料開發、分析人員更高效地使用Spark進行離線批處理和SQL報表分析等作業。
推薦引數配置模板如下:
-
Spark-submit 提交方式指令碼
/xxx/spark23/xxx/spark-submit --master yarn-cluster \--name ${mainClassName} \--conf spark.serializer=org.apache.spark.serializer.KryoSerializer \--conf spark.yarn.maxAppAttempts=2 \--conf spark.executor.extraJavaOptions=-XX:+UseConcMarkSweepGC \--driver-memory 2g \--conf spark.sql.shuffle.partitions=1000 \--conf hive.metastore.schema.verification=false \--conf spark.sql.catalogImplementation=hive \--conf spark.sql.warehouse.dir=${warehouse} \--conf spark.sql.hive.manageFilesourcePartitions=false \--conf hive.metastore.try.direct.sql=true \--conf spark.executor.memoryOverhead=512M \--conf spark.yarn.executor.memoryOverhead=512 \--executor-cores 2 \--executor-memory 4g \--num-executors 50 \--class 啟動類 \${jarPath} \-M ${mainClassName}
-
spark-sql 提交方式指令碼
-
option=/xxx/spark23/xxx/spark-sqlexport SPARK_MAJOR_VERSION=2${option} --master yarn-client \--driver-memory 1G \--executor-memory 4G \--executor-cores 2 \--num-executors 50 \--conf "spark.driver.extraJavaOptions=-Dlog4j.configuration=file:log4j.properties" \--conf spark.sql.hive.caseSensitiveInferenceMode=NEVER_INFER \--conf spark.sql.auto.repartition=true \--conf spark.sql.autoBroadcastJoinThreshold=104857600 \--conf "spark.sql.hive.metastore.try.direct.sql=true" \--conf spark.dynamicAllocation.enabled=true \--conf spark.dynamicAllocation.minExecutors=1 \--conf spark.dynamicAllocation.maxExecutors=200 \--conf spark.dynamicAllocation.executorIdleTimeout=10m \--conf spark.port.maxRetries=300 \--conf spark.executor.memoryOverhead=512M \--conf spark.yarn.executor.memoryOverhead=512 \--conf spark.sql.shuffle.partitions=10000 \--conf spark.sql.adaptive.enabled=true \--conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize=134217728 \--conf spark.sql.parquet.compression.codec=gzip \--conf spark.sql.orc.compression.codec=zlib \--conf spark.ui.showConsoleProgress=true-f pro.sql pro.sql 為業務邏輯指令碼
Spark效能調優-進階篇
針對有意願瞭解Spark底層原理的讀者,本文梳理了standalone、Yarn-client、Yarn-cluster等3種常見任務提交方式的互動圖,以幫助相關使用者更直觀地理解Spark的核心技術原理、為閱讀接下來的進階篇內容打好基礎。
standalone
1) spark-submit 提交,透過反射的方式構造出1個DriverActor 程式;
2) Driver程式執行編寫的application,構造sparkConf,構造sparkContext;
3) SparkContext在初始化時,構造DAGScheduler、TaskScheduler,jetty啟動webui;
4) TaskScheduler 有sparkdeployschedulebackend 程式,去和Master通訊,請求註冊Application;
5) Master 接受通訊後,註冊Application,使用資源排程演算法,通知Worker,讓worker啟動Executor;
6) worker會為該application 啟動executor,executor 啟動後,會反向註冊到TaskScheduler;
7) 所有Executor 反向註冊到TaskScheduler 後,Driver 結束sparkContext 的初始化;
8) Driver繼續往下執行編寫的application,每執行到1個action,就會建立1個job;
9) job 會被提交給DAGScheduler,DAGScheduler 會對job 劃分為多個stage(stage劃分演算法),每個stage建立1個taskSet;
10) taskScheduler會把taskSet裡每1個task 都提交到executor 上執行(task 分配演算法);
11) Executor 每接受到1個task,都會用taskRunner來封裝task,之後從executor 的執行緒池中取出1個執行緒,來執行這個taskRunner。(task runner:把編寫的程式碼/運算元/函式複製,反序列化,然後執行task)。
Yarn-client
1) 傳送請求到ResourceManager(RM),請求啟動ApplicationMaster(AM);
2) RM 分配container 在某個NodeManager(NM)上,啟動AM,實際是個ExecutorLauncher;
3) AM向RM 申請container;
4) RM給AM 分配container;
5) AM 請求NM 來啟動相應的Executor;
6) executor 啟動後,反向註冊到Driver程式;
7) 後序劃分stage,提交taskset 和standalone 模式類似。
Yarn-cluster
1) 傳送請求到ResourceManager(RM),請求啟動ApplicationMaster(AM);
2) RM 分配container 在某個NodeManager(NM)上,啟動AM;
3) AM向RM 申請container;
4) RM給AM 分配container;
5) AM 請求NM 來啟動相應的Executor;
6) executor 啟動後,反向註冊到AM;
7) 後序劃分stage,提交taskset 和standalone 模式類似。
理解了以上3種常見任務的底層互動後,接下來本文從 儲存格式、資料傾斜、引數配置等3個方面來展開,為大家分享個推進行Spark效能調優的進階姿勢。
儲存格式(檔案格式、壓縮演算法)
眾所周知,不同的SQL引擎在不同的儲存格式上,其最佳化方式也不同,比如Hive更傾向於orc,Spark則更傾向於parquet。同時,在進行大資料作業時, 點查、寬表查詢、大表join操作相對頻繁,這就要求檔案格式最好採用 列式儲存,並且可分割。因此我們推薦以parquet、orc 為主的列式儲存檔案格式和以gzip、snappy、zlib 為主的壓縮演算法。在組合方式上,我們建議使用 parquet+gzip、orc+zlib的組合方式,這樣的組合方式 兼顧了列式儲存與可分割的情況,相比txt+gz 這種行式儲存且不可分割的組合方式更能夠適應以上大資料場景的需求。
個推以線上500G左右的資料為例,在不同的叢集環境與SQL引擎下,對不同的儲存檔案格式和演算法組合進行了效能測試。測試資料表明: 相同資源條件下,parquet+gz 儲存格式較text+gz儲存格式在多值查詢、多表join上提速至少在60%以上。
結合測試結果,我們對不同的叢集環境與SQL引擎下所推薦使用的儲存格式進行了梳理,如下表:
同時,我們也對parquet+gz、orc+zlib的記憶體消耗進行了測試。 以某表的單個歷史分割槽資料為例,parquet+gz、orc+zlib比txt+gz 分別節省26%和49%的儲存空間。
完整測試結果如下表:
可見,parquet+gz、orc+zlib確實在降本提效方面效果顯著。 那麼,如何使用這兩種儲存格式呢?步驟如下:
➤hive 與 spark 開啟指定檔案格式的壓縮演算法
-
spark:
set spark.sql.parquet.compression.codec=gzip;
set spark.sql.orc.compression.codec=zlib;
-
hive:
set hive.exec.compress.output= true;
set mapreduce.output.fileoutputformat.compress= true;
set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.GzipCodec;
➤建表時指定檔案格式
-
parquet 檔案格式(序列化,輸入輸出類)
CREATE EXTERNAL TABLE `test`(rand_num double)
PARTITIONED BY ( `day` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat'
;
-
orc 檔案格式(序列化,輸入輸出類)
ROW FORMAT SERDE
'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
STORED AS INPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'
;
➤線上表調
ALTER TABLE db1.table1_std SET TBLPROPERTIES ('parquet.compression'='gzip');ALTER TABLE db2.table2_std SET TBLPROPERTIES ('orc.compression'='ZLIB');
➤ctas 建表
create table tablename stored as parquet as select ……;create table tablename stored as orc TBLPROPERTIES ('orc.compress'='ZLIB') as select ……;
資料傾斜
資料傾斜分為map傾斜和reduce傾斜兩種情況。本文著重介紹 reduce 傾斜,如SQL 中常見的group by、join 等都可能是其重災區。資料傾斜發生時,一般表現為: 部分task 顯著慢於同批task,task 資料量顯著大於其他task,部分taskOOM、spark shuffle 檔案丟失等。如下圖示例,在duration 列和shuffleReadSize/Records列,我們能明顯發現部分task 處理資料量顯著升高,耗時變長,造成了資料傾斜:
如何解決資料傾斜?
我們總結了7種資料傾斜解決方案,能夠幫助大家解決常見的資料傾斜問題:
解決方案一:使用 Hive ETL預處理資料
即在資料血緣關係中,把傾斜問題前移處理,從而使下游使用方無需再考慮資料傾斜問題。
⁕該方案適用於 下游互動性強的業務,如秒級/分鐘級別提數查詢。
解決方案二:過濾少數導致傾斜的key
即剔除傾斜的大key,該方案一般 結合百分位點使用,如99.99%的id 記錄數為100條以內,那麼100條以外的id 就可考慮予以剔除。
⁕該方案 在統計型場景下較為實用,而在明細場景下,需要看過濾的大key 是否為業務所側重和關注。
解決方案三:提高shuffle操作的並行度
即對spark.sql.shuffle.partitions引數進行動態調整,透過增加shuffle write task寫出的partition數量,來達到key的均勻分配。SparkSQL2.3 在預設情況下,該值為200。開發人員可以在啟動指令碼增加如下引數,對該值進行動態調整:
-
conf spark.sql.shuffle.partitions=10000
-
conf spark.sql.adaptive.enabled=true
-
conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize=134217728
⁕該方案 非常簡單,但是對於key的均勻分配卻能起到較好的最佳化作用。比如,原本10個key,每個50條記錄,只有1個partition,那麼後續的task需要處理500條記錄。透過增加partition 數量,可以使每個task 都處理50條記錄,10個task 並行跑數,耗時只需要原來1個task 的1/10。 但是該方案對於大key較難最佳化,比如,某個大key記錄數有百萬條,那麼大key 還是會被分配到1個task 中去。
解決方案四:將reducejoin轉為mapjoin
指的是在map端join,不走shuffle過程。以Spark為例,可以透過廣播變數的形式,將小RDD的資料下發到各個Worker節點上(Yarn 模式下是NM),在各個Worker節點上進行join。
⁕該方案 適用於小表join大表場景(百G以上的資料體量)。此處的小表預設閾值為10M,低於此閾值的小表,可分發到worker節點。具體可調整的上限需要小於container分配的記憶體。
解決方案五:取樣傾斜key並分拆join操作
如下圖示例:A表 join B表,A表有大key、B表無大key,其中大key的id為1,有3條記錄。
如何進行分拆join操作呢?
-
首先將A表、B表中id1單獨拆分出來,剔除大key的A' 和 B' 先join,達到非傾斜的速度;
-
針對A表大key新增隨機字首,B表擴容N倍,單獨join;join後剔除隨機字首即可;
-
再對以上2部分union。
⁕該方案的本質還是減少單個task 處理過多資料時所引發的資料傾斜風險, 適用於大key較少的情況。
解決方案六:使用隨機字首和擴容RDD進行join
比如,A 表 join B表,以A表有大key、B表無大key為例:
-
對A表每條記錄打上[1,n] 的隨機字首,B表擴容N倍,join。
-
join完成後剔除隨機字首。
⁕該方案 適用於大key較多的情況,但也會增加資源消耗。
解決方案七:combiner
即在map端做combiner操作,減少shuffle 拉取的資料量。
⁕該方案適合累加求和等場景。
在實際場景中,建議相關開發人員具體情況具體分析,針對複雜問題也可將以上方法進行組合使用。
Spark 引數配置
針對無資料傾斜的情況,我們梳理總結了引數配置參照表幫助大家進行Spark效能調優,這些引數的設定適用於2T左右資料的洞察與應用,基本滿足大多數場景下的調優需求。
總結
目前,Spark已經發展到了Spark3.x,最新版本為Spark 3.1.2 released (Jun 01, 2021)。Spark3.x的許多新特性,如動態分割槽修剪、Pandas API的重大改進、增強巢狀列的裁剪和下推等亮點功能,為進一步實現降本增效提供了好思路。未來,個推也將繼續保持對Spark演進的關注,並持續展開實踐和分享。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31556026/viewspace-2793282/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 個推技術實踐 | Spark效能調優看這篇,效能提升60%↑ 成本降低50%↓Spark
- MySQL 效能優化:效能提升 50%,延遲降低 60%MySql優化
- Android App效能優化技能,看這篇就夠了AndroidAPP優化
- 關於GC原理和效能調優實踐,看這一篇就夠了!GC
- 小程式分享,看這篇就夠了
- mongoDB看這篇就夠了MongoDB
- MongoDB資料庫效能監控看這一篇就夠了MongoDB資料庫
- 個推技術分享 | 掌握這兩個調優技巧,讓TiDB效能提速千倍TiDB
- Oracle索引,看這篇就夠了Oracle索引
- 關於MySQL資料庫效能優化方法,看這一篇文章就夠了!MySql資料庫優化
- 入門Webpack,看這篇就夠了Web
- Android Fragment看這篇就夠了AndroidFragment
- OAuth授權|看這篇就夠了OAuth
- Zookeeper入門看這篇就夠了
- Git 看這一篇就夠了Git
- React入門看這篇就夠了React
- JavaScript正則,看這篇就夠了JavaScript
- spark效能調優指南高階篇Spark
- Spark效能調優Spark
- JS作用域和變數提升看這一篇就夠了JS變數
- Flutter DataTable 看這一篇就夠了Flutter
- 小程式入門看這篇就夠了
- Java 動態代理,看這篇就夠了Java
- vue 元件通訊看這篇就夠了Vue元件
- java序列化,看這篇就夠了Java
- 代理模式看這一篇就夠了模式
- EFCore 6.0入門看這篇就夠了
- ZooKeeper分散式配置——看這篇就夠了分散式
- Java 集合看這一篇就夠了Java
- 學習Less-看這篇就夠了
- [收藏]學習sed,看這篇就夠了
- iOS-Charts看這個就夠了iOS
- Spark的效能調優Spark
- 23條前端效能優化,看懂就夠了!前端優化
- Spark架構與原理這一篇就夠了Spark架構
- spark記憶體管理這一篇就夠了Spark記憶體
- Spark 效能調優--資源調優Spark
- Spark 效能調優--Shuffle調優 SortShuffleManagerSpark