前言
繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後,本文作為《Spark效能優化指南》的高階篇,將深入分析資料傾斜調優與shuffle調優,以解決更加棘手的效能問題。
資料傾斜調優
調優概述
有的時候,我們可能會遇到大資料計算中一個最棘手的問題——資料傾斜,此時Spark作業的效能會比期望差很多。資料傾斜調優,就是使用各種技術方案解決不同型別的資料傾斜問題,以保證Spark作業的效能。
資料傾斜發生時的現象
- 絕大多數task執行得都非常快,但個別task執行極慢。比如,總共有1000個task,997個task都在1分鐘之內執行完了,但是剩餘兩三個task卻要一兩個小時。這種情況很常見。
- 原本能夠正常執行的Spark作業,某天突然報出OOM(記憶體溢位)異常,觀察異常棧,是我們寫的業務程式碼造成的。這種情況比較少見。
資料傾斜發生的原理
資料傾斜的原理很簡單:在進行shuffle的時候,必須將各個節點上相同的key拉取到某個節點上的一個task來進行處理,比如按照key進行 聚合或join等操作。此時如果某個key對應的資料量特別大的話,就會發生資料傾斜。比如大部分key對應10條資料,但是個別key卻對應了100萬 條資料,那麼大部分task可能就只會分配到10條資料,然後1秒鐘就執行完了;但是個別task可能分配到了100萬資料,要執行一兩個小時。因此,整 個Spark作業的執行進度是由執行時間最長的那個task決定的。
因此出現資料傾斜的時候,Spark作業看起來會執行得非常緩慢,甚至可能因為某個task處理的資料量過大導致記憶體溢位。
下圖就是一個很清晰的例子:hello這個key,在三個節點上對應了總共7條資料,這些資料都會被拉取到同一個task中進行處理;而world 和you這兩個key分別才對應1條資料,所以另外兩個task只要分別處理1條資料即可。此時第一個task的執行時間可能是另外兩個task的7倍, 而整個stage的執行速度也由執行最慢的那個task所決定。
如何定位導致資料傾斜的程式碼
資料傾斜只會發生在shuffle過程中。這裡給大家羅列一些常用的並且可能會觸發shuffle操作的運算元:distinct、 groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。出現資料傾斜時, 可能就是你的程式碼中使用了這些運算元中的某一個所導致的。
某個task執行特別慢的情況
首先要看的,就是資料傾斜發生在第幾個stage中。
如果是用yarn-client模式提交,那麼本地是直接可以看到log的,可以在log中找到當前執行到了第幾個stage;如果是用yarn- cluster模式提交,則可以通過Spark Web UI來檢視當前執行到了第幾個stage。此外,無論是使用yarn-client模式還是yarn-cluster模式,我們都可以在Spark Web UI上深入看一下當前這個stage各個task分配的資料量,從而進一步確定是不是task分配的資料不均勻導致了資料傾斜。
比如下圖中,倒數第三列顯示了每個task的執行時間。明顯可以看到,有的task執行特別快,只需要幾秒鐘就可以執行完;而有的task執行特別 慢,需要幾分鐘才能執行完,此時單從執行時間上看就已經能夠確定發生資料傾斜了。此外,倒數第一列顯示了每個task處理的資料量,明顯可以看到,執行時 間特別短的task只需要處理幾百KB的資料即可,而執行時間特別長的task需要處理幾千KB的資料,處理的資料量差了10倍。此時更加能夠確定是發生 了資料傾斜。
知道資料傾斜發生在哪一個stage之後,接著我們就需要根據stage劃分原理,推算出來發生傾斜的那個stage對應程式碼中的哪一部分,這部分 程式碼中肯定會有一個shuffle類運算元。精準推算stage與程式碼的對應關係,需要對Spark的原始碼有深入的理解,這裡我們可以介紹一個相對簡單實用 的推算方法:只要看到Spark程式碼中出現了一個shuffle類運算元或者是Spark SQL的SQL語句中出現了會導致shuffle的語句(比如group by語句),那麼就可以判定,以那個地方為界限劃分出了前後兩個stage。
這裡我們就以Spark最基礎的入門程式——單詞計數來舉例,如何用最簡單的方法大致推算出一個stage對應的程式碼。如下示例,在整個程式碼中,只 有一個reduceByKey是會發生shuffle的運算元,因此就可以認為,以這個運算元為界限,會劃分出前後兩個stage。
- stage0,主要是執行從textFile到map操作,以及執行shuffle write操作。shuffle write操作,我們可以簡單理解為對pairs RDD中的資料進行分割槽操作,每個task處理的資料中,相同的key會寫入同一個磁碟檔案內。
- stage1,主要是執行從reduceByKey到collect操作,stage1的各個task一開始執行,就會首先執行shuffle read操作。執行shuffle read操作的task,會從stage0的各個task所在節點拉取屬於自己處理的那些key,然後對同一個key進行全域性性的聚合或join等操作, 在這裡就是對key的value值進行累加。stage1在執行完reduceByKey運算元之後,就計算出了最終的wordCounts RDD,然後會執行collect運算元,將所有資料拉取到Driver上,供我們遍歷和列印輸出。
1 2 3 4 5 6 7 8 9 |
val conf = new SparkConf() val sc = new SparkContext(conf) val lines = sc.textFile("hdfs://...") val words = lines.flatMap(_.split(" ")) val pairs = words.map((_, 1)) val wordCounts = pairs.reduceByKey(_ + _) wordCounts.collect().foreach(println(_)) |
通過對單詞計數程式的分析,希望能夠讓大家瞭解最基本的stage劃分的原理,以及stage劃分後shuffle操作是如何在兩個stage的邊 界處執行的。然後我們就知道如何快速定位出發生資料傾斜的stage對應程式碼的哪一個部分了。比如我們在Spark Web UI或者本地log中發現,stage1的某幾個task執行得特別慢,判定stage1出現了資料傾斜,那麼就可以回到程式碼中定位出stage1主要包 括了reduceByKey這個shuffle類運算元,此時基本就可以確定是由educeByKey運算元導致的資料傾斜問題。比如某個單詞出現了100萬 次,其他單詞才出現10次,那麼stage1的某個task就要處理100萬資料,整個stage的速度就會被這個task拖慢。
某個task莫名其妙記憶體溢位的情況
這種情況下去定位出問題的程式碼就比較容易了。我們建議直接看yarn-client模式下本地log的異常棧,或者是通過YARN檢視yarn- cluster模式下的log中的異常棧。一般來說,通過異常棧資訊就可以定位到你的程式碼中哪一行發生了記憶體溢位。然後在那行程式碼附近找找,一般也會有 shuffle類運算元,此時很可能就是這個運算元導致了資料傾斜。
但是大家要注意的是,不能單純靠偶然的記憶體溢位就判定發生了資料傾斜。因為自己編寫的程式碼的bug,以及偶然出現的資料異常,也可能會導致記憶體溢 出。因此還是要按照上面所講的方法,通過Spark Web UI檢視報錯的那個stage的各個task的執行時間以及分配的資料量,才能確定是否是由於資料傾斜才導致了這次記憶體溢位。
檢視導致資料傾斜的key的資料分佈情況
知道了資料傾斜發生在哪裡之後,通常需要分析一下那個執行了shuffle操作並且導致了資料傾斜的RDD/Hive表,檢視一下其中key的分佈 情況。這主要是為之後選擇哪一種技術方案提供依據。針對不同的key分佈與不同的shuffle運算元組合起來的各種情況,可能需要選擇不同的技術方案來解 決。
此時根據你執行操作的情況不同,可以有很多種檢視key分佈的方式:
- 如果是Spark SQL中的group by、join語句導致的資料傾斜,那麼就查詢一下SQL中使用的表的key分佈情況。
- 如果是對Spark RDD執行shuffle運算元導致的資料傾斜,那麼可以在Spark作業中加入檢視key分佈的程式碼,比如RDD.countByKey()。然後對統計 出來的各個key出現的次數,collect/take到客戶端列印一下,就可以看到key的分佈情況。
舉例來說,對於上面所說的單詞計數程式,如果確定了是stage1的reduceByKey運算元導致了資料傾斜,那麼就應該看看進行 reduceByKey操作的RDD中的key分佈情況,在這個例子中指的就是pairs RDD。如下示例,我們可以先對pairs取樣10%的樣本資料,然後使用countByKey運算元統計出每個key出現的次數,最後在客戶端遍歷和列印 樣本資料中各個key的出現次數。
1 2 3 |
val sampledPairs = pairs.sample(false, 0.1) val sampledWordCounts = sampledPairs.countByKey() sampledWordCounts.foreach(println(_)) |
資料傾斜的解決方案
解決方案一:使用Hive ETL預處理資料
方案適用場景:導致資料傾斜的是Hive表。如果該Hive表中的資料本身很不均勻(比如某個key對應了100萬資料,其他key才對應了10條資料),而且業務場景需要頻繁使用Spark對Hive表執行某個分析操作,那麼比較適合使用這種技術方案。
方案實現思路:此時可以評估一下,是否可以通過Hive來進行資料預處理(即通過Hive ETL預先對資料按照key進行聚合,或者是預先和其他表進行join),然後在Spark作業中針對的資料來源就不是原來的Hive表了,而是預處理後的 Hive表。此時由於資料已經預先進行過聚合或join操作了,那麼在Spark作業中也就不需要使用原先的shuffle類運算元執行這類操作了。
方案實現原理:這種方案從根源上解決了資料傾斜,因為徹底避免了在Spark中執行shuffle類運算元,那麼 肯定就不會有資料傾斜的問題了。但是這裡也要提醒一下大家,這種方式屬於治標不治本。因為畢竟資料本身就存在分佈不均勻的問題,所以Hive ETL中進行group by或者join等shuffle操作時,還是會出現資料傾斜,導致Hive ETL的速度很慢。我們只是把資料傾斜的發生提前到了Hive ETL中,避免Spark程式發生資料傾斜而已。
方案優點:實現起來簡單便捷,效果還非常好,完全規避掉了資料傾斜,Spark作業的效能會大幅度提升。
方案缺點:治標不治本,Hive ETL中還是會發生資料傾斜。
方案實踐經驗:在一些Java系統與Spark結合使用的專案中,會出現Java程式碼頻繁呼叫Spark作業的 場景,而且對Spark作業的執行效能要求很高,就比較適合使用這種方案。將資料傾斜提前到上游的Hive ETL,每天僅執行一次,只有那一次是比較慢的,而之後每次Java呼叫Spark作業時,執行速度都會很快,能夠提供更好的使用者體驗。
專案實踐經驗:在美團·點評的互動式使用者行為分析系統中使用了這種方案,該系統主要是允許使用者通過Java Web系統提交資料分析統計任務,後端通過Java提交Spark作業進行資料分析統計。要求Spark作業速度必須要快,儘量在10分鐘以內,否則速度 太慢,使用者體驗會很差。所以我們將有些Spark作業的shuffle操作提前到了Hive ETL中,從而讓Spark直接使用預處理的Hive中間表,儘可能地減少Spark的shuffle操作,大幅度提升了效能,將部分作業的效能提升了6 倍以上。
解決方案二:過濾少數導致傾斜的key
方案適用場景:如果發現導致傾斜的key就少數幾個,而且對計算本身的影響並不大的話,那麼很適合使用這種方案。比如99%的key就對應10條資料,但是隻有一個key對應了100萬資料,從而導致了資料傾斜。
方案實現思路:如果我們判斷那少數幾個資料量特別多的key,對作業的執行和計算結果不是特別重要的話,那麼幹 脆就直接過濾掉那少數幾個key。比如,在Spark SQL中可以使用where子句過濾掉這些key或者在Spark Core中對RDD執行filter運算元過濾掉這些key。如果需要每次作業執行時,動態判定哪些key的資料量最多然後再進行過濾,那麼可以使用 sample運算元對RDD進行取樣,然後計算出每個key的數量,取資料量最多的key過濾掉即可。
方案實現原理:將導致資料傾斜的key給過濾掉之後,這些key就不會參與計算了,自然不可能產生資料傾斜。
方案優點:實現簡單,而且效果也很好,可以完全規避掉資料傾斜。
方案缺點:適用場景不多,大多數情況下,導致傾斜的key還是很多的,並不是只有少數幾個。
方案實踐經驗:在專案中我們也採用過這種方案解決資料傾斜。有一次發現某一天Spark作業在執行的時候突然 OOM了,追查之後發現,是Hive表中的某一個key在那天資料異常,導致資料量暴增。因此就採取每次執行前先進行取樣,計算出樣本中資料量最大的幾個 key之後,直接在程式中將那些key給過濾掉。
解決方案三:提高shuffle操作的並行度
方案適用場景:如果我們必須要對資料傾斜迎難而上,那麼建議優先使用這種方案,因為這是處理資料傾斜最簡單的一種方案。
方案實現思路:在對RDD執行shuffle運算元時,給shuffle運算元傳入一個引數,比如 reduceByKey(1000),該引數就設定了這個shuffle運算元執行時shuffle read task的數量。對於Spark SQL中的shuffle類語句,比如group by、join等,需要設定一個引數,即spark.sql.shuffle.partitions,該引數代表了shuffle read task的並行度,該值預設是200,對於很多場景來說都有點過小。
方案實現原理:增加shuffle read task的數量,可以讓原本分配給一個task的多個key分配給多個task,從而讓每個task處理比原來更少的資料。舉例來說,如果原本有5個 key,每個key對應10條資料,這5個key都是分配給一個task的,那麼這個task就要處理50條資料。而增加了shuffle read task以後,每個task就分配到一個key,即每個task就處理10條資料,那麼自然每個task的執行時間都會變短了。具體原理如下圖所示。
方案優點:實現起來比較簡單,可以有效緩解和減輕資料傾斜的影響。
方案缺點:只是緩解了資料傾斜而已,沒有徹底根除問題,根據實踐經驗來看,其效果有限。
方案實踐經驗:該方案通常無法徹底解決資料傾斜,因為如果出現一些極端情況,比如某個key對應的資料量有 100萬,那麼無論你的task數量增加到多少,這個對應著100萬資料的key肯定還是會分配到一個task中去處理,因此註定還是會發生資料傾斜的。 所以這種方案只能說是在發現資料傾斜時嘗試使用的第一種手段,嘗試去用嘴簡單的方法緩解資料傾斜而已,或者是和其他方案結合起來使用。
解決方案四:兩階段聚合(區域性聚合+全域性聚合)
方案適用場景:對RDD執行reduceByKey等聚合類shuffle運算元或者在Spark SQL中使用group by語句進行分組聚合時,比較適用這種方案。
方案實現思路:這個方案的核心實現思路就是進行兩階段聚合。第一次是區域性聚合,先給每個key都打上一個隨機 數,比如10以內的隨機數,此時原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)。接著對打上隨機數後的資料,執行reduceByKey等聚合操作,進行區域性聚合,那麼區域性聚合結果,就會變成了(1_hello, 2) (2_hello, 2)。然後將各個key的字首給去掉,就會變成(hello,2)(hello,2),再次進行全域性聚合操作,就可以得到最終結果了,比如(hello, 4)。
方案實現原理:將原本相同的key通過附加隨機字首的方式,變成多個不同的key,就可以讓原本被一個task處理的資料分散到多個task上去做區域性聚合,進而解決單個task處理資料量過多的問題。接著去除掉隨機字首,再次進行全域性聚合,就可以得到最終的結果。具體原理見下圖。
方案優點:對於聚合類的shuffle操作導致的資料傾斜,效果是非常不錯的。通常都可以解決掉資料傾斜,或者至少是大幅度緩解資料傾斜,將Spark作業的效能提升數倍以上。
方案缺點:僅僅適用於聚合類的shuffle操作,適用範圍相對較窄。如果是join類的shuffle操作,還得用其他的解決方案。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 |
// 第一步,給RDD中的每個key都打上一個隨機字首。 JavaPairRDD<String, Long> randomPrefixRdd = rdd.mapToPair( new PairFunction<Tuple2<Long,Long>, String, Long>() { private static final long serialVersionUID = 1L; @Override public Tuple2<String, Long> call(Tuple2<Long, Long> tuple) throws Exception { Random random = new Random(); int prefix = random.nextInt(10); return new Tuple2<String, Long>(prefix + "_" + tuple._1, tuple._2); } }); // 第二步,對打上隨機字首的key進行區域性聚合。 JavaPairRDD<String, Long> localAggrRdd = randomPrefixRdd.reduceByKey( new Function2<Long, Long, Long>() { private static final long serialVersionUID = 1L; @Override public Long call(Long v1, Long v2) throws Exception { return v1 + v2; } }); // 第三步,去除RDD中每個key的隨機字首。 JavaPairRDD<Long, Long> removedRandomPrefixRdd = localAggrRdd.mapToPair( new PairFunction<Tuple2<String,Long>, Long, Long>() { private static final long serialVersionUID = 1L; @Override public Tuple2<Long, Long> call(Tuple2<String, Long> tuple) throws Exception { long originalKey = Long.valueOf(tuple._1.split("_")[1]); return new Tuple2<Long, Long>(originalKey, tuple._2); } }); // 第四步,對去除了隨機字首的RDD進行全域性聚合。 JavaPairRDD<Long, Long> globalAggrRdd = removedRandomPrefixRdd.reduceByKey( new Function2<Long, Long, Long>() { private static final long serialVersionUID = 1L; @Override public Long call(Long v1, Long v2) throws Exception { return v1 + v2; } }); |
解決方案五:將reduce join轉為map join
方案適用場景:在對RDD使用join類操作,或者是在Spark SQL中使用join語句時,而且join操作中的一個RDD或表的資料量比較小(比如幾百M或者一兩G),比較適用此方案。
方案實現思路:不使用join運算元進行連線操作,而使用Broadcast變數與map類運算元實現join操 作,進而完全規避掉shuffle類的操作,徹底避免資料傾斜的發生和出現。將較小RDD中的資料直接通過collect運算元拉取到Driver端的記憶體 中來,然後對其建立一個Broadcast變數;接著對另外一個RDD執行map類運算元,在運算元函式內,從Broadcast變數中獲取較小RDD的全量 資料,與當前RDD的每一條資料按照連線key進行比對,如果連線key相同的話,那麼就將兩個RDD的資料用你需要的方式連線起來。
方案實現原理:普通的join是會走shuffle過程的,而一旦shuffle,就相當於會將相同key的數 據拉取到一個shuffle read task中再進行join,此時就是reduce join。但是如果一個RDD是比較小的,則可以採用廣播小RDD全量資料+map運算元來實現與join同樣的效果,也就是map join,此時就不會發生shuffle操作,也就不會發生資料傾斜。具體原理如下圖所示。
方案優點:對join操作導致的資料傾斜,效果非常好,因為根本就不會發生shuffle,也就根本不會發生資料傾斜。
方案缺點:適用場景較少,因為這個方案只適用於一個大表和一個小表的情況。畢竟我們需要將小表進行廣播,此時會 比較消耗記憶體資源,driver和每個Executor記憶體中都會駐留一份小RDD的全量資料。如果我們廣播出去的RDD資料比較大,比如10G以上,那 麼就可能發生記憶體溢位了。因此並不適合兩個都是大表的情況。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 |
// 首先將資料量比較小的RDD的資料,collect到Driver中來。 List<Tuple2<Long, Row>> rdd1Data = rdd1.collect() // 然後使用Spark的廣播功能,將小RDD的資料轉換成廣播變數,這樣每個Executor就只有一份RDD的資料。 // 可以儘可能節省記憶體空間,並且減少網路傳輸效能開銷。 final Broadcast<List<Tuple2<Long, Row>>> rdd1DataBroadcast = sc.broadcast(rdd1Data); // 對另外一個RDD執行map類操作,而不再是join類操作。 JavaPairRDD<String, Tuple2<String, Row>> joinedRdd = rdd2.mapToPair( new PairFunction<Tuple2<Long,String>, String, Tuple2<String, Row>>() { private static final long serialVersionUID = 1L; @Override public Tuple2<String, Tuple2<String, Row>> call(Tuple2<Long, String> tuple) throws Exception { // 在運算元函式中,通過廣播變數,獲取到本地Executor中的rdd1資料。 List<Tuple2<Long, Row>> rdd1Data = rdd1DataBroadcast.value(); // 可以將rdd1的資料轉換為一個Map,便於後面進行join操作。 Map<Long, Row> rdd1DataMap = new HashMap<Long, Row>(); for(Tuple2<Long, Row> data : rdd1Data) { rdd1DataMap.put(data._1, data._2); } // 獲取當前RDD資料的key以及value。 String key = tuple._1; String value = tuple._2; // 從rdd1資料Map中,根據key獲取到可以join到的資料。 Row rdd1Value = rdd1DataMap.get(key); return new Tuple2<String, String>(key, new Tuple2<String, Row>(value, rdd1Value)); } }); // 這裡得提示一下。 // 上面的做法,僅僅適用於rdd1中的key沒有重複,全部是唯一的場景。 // 如果rdd1中有多個相同的key,那麼就得用flatMap類的操作,在進行join的時候不能用map,而是得遍歷rdd1所有資料進行join。 // rdd2中每條資料都可能會返回多條join後的資料。 |
解決方案六:取樣傾斜key並分拆join操作
方案適用場景:兩個RDD/Hive表進行join的時候,如果資料量都比較大,無法採用“解決方案五”,那麼 此時可以看一下兩個RDD/Hive表中的key分佈情況。如果出現資料傾斜,是因為其中某一個RDD/Hive表中的少數幾個key的資料量過大,而另 一個RDD/Hive表中的所有key都分佈比較均勻,那麼採用這個解決方案是比較合適的。
方案實現思路:
- 對包含少數幾個資料量過大的key的那個RDD,通過sample運算元取樣出一份樣本來,然後統計一下每個key的數量,計算出來資料量最大的是哪幾個key。
- 然後將這幾個key對應的資料從原來的RDD中拆分出來,形成一個單獨的RDD,並給每個key都打上n以內的隨機數作為字首,而不會導致傾斜的大部分key形成另外一個RDD。
- 接著將需要join的另一個RDD,也過濾出來那幾個傾斜key對應的資料並形成一個單獨的RDD,將每條資料膨脹成n條資料,這n條資料都按順序附加一個0~n的字首,不會導致傾斜的大部分key也形成另外一個RDD。
- 再將附加了隨機字首的獨立RDD與另一個膨脹n倍的獨立RDD進行join,此時就可以將原先相同的key打散成n份,分散到多個task中去進行join了。
- 而另外兩個普通的RDD就照常join即可。
- 最後將兩次join的結果使用union運算元合併起來即可,就是最終的join結果。
方案實現原理:對於join導致的資料傾斜,如果只是某幾個key導致了傾斜,可以將少數幾個key分拆成獨立RDD,並附加隨機字首打散成n份去進行join,此時這幾個key對應的資料就不會集中在少數幾個task上,而是分散到多個task進行join了。具體原理見下圖。
方案優點:對於join導致的資料傾斜,如果只是某幾個key導致了傾斜,採用該方式可以用最有效的方式打散key進行join。而且只需要針對少數傾斜key對應的資料進行擴容n倍,不需要對全量資料進行擴容。避免了佔用過多記憶體。
方案缺點:如果導致傾斜的key特別多的話,比如成千上萬個key都導致資料傾斜,那麼這種方式也不適合。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 |
// 首先從包含了少數幾個導致資料傾斜key的rdd1中,取樣10%的樣本資料。 JavaPairRDD<Long, String> sampledRDD = rdd1.sample(false, 0.1); // 對樣本資料RDD統計出每個key的出現次數,並按出現次數降序排序。 // 對降序排序後的資料,取出top 1或者top 100的資料,也就是key最多的前n個資料。 // 具體取出多少個資料量最多的key,由大家自己決定,我們這裡就取1個作為示範。 JavaPairRDD<Long, Long> mappedSampledRDD = sampledRDD.mapToPair( new PairFunction<Tuple2<Long,String>, Long, Long>() { private static final long serialVersionUID = 1L; @Override public Tuple2<Long, Long> call(Tuple2<Long, String> tuple) throws Exception { return new Tuple2<Long, Long>(tuple._1, 1L); } }); JavaPairRDD<Long, Long> countedSampledRDD = mappedSampledRDD.reduceByKey( new Function2<Long, Long, Long>() { private static final long serialVersionUID = 1L; @Override public Long call(Long v1, Long v2) throws Exception { return v1 + v2; } }); JavaPairRDD<Long, Long> reversedSampledRDD = countedSampledRDD.mapToPair( new PairFunction<Tuple2<Long,Long>, Long, Long>() { private static final long serialVersionUID = 1L; @Override public Tuple2<Long, Long> call(Tuple2<Long, Long> tuple) throws Exception { return new Tuple2<Long, Long>(tuple._2, tuple._1); } }); final Long skewedUserid = reversedSampledRDD.sortByKey(false).take(1).get(0)._2; // 從rdd1中分拆出導致資料傾斜的key,形成獨立的RDD。 JavaPairRDD<Long, String> skewedRDD = rdd1.filter( new Function<Tuple2<Long,String>, Boolean>() { private static final long serialVersionUID = 1L; @Override public Boolean call(Tuple2<Long, String> tuple) throws Exception { return tuple._1.equals(skewedUserid); } }); // 從rdd1中分拆出不導致資料傾斜的普通key,形成獨立的RDD。 JavaPairRDD<Long, String> commonRDD = rdd1.filter( new Function<Tuple2<Long,String>, Boolean>() { private static final long serialVersionUID = 1L; @Override public Boolean call(Tuple2<Long, String> tuple) throws Exception { return !tuple._1.equals(skewedUserid); } }); // rdd2,就是那個所有key的分佈相對較為均勻的rdd。 // 這裡將rdd2中,前面獲取到的key對應的資料,過濾出來,分拆成單獨的rdd,並對rdd中的資料使用flatMap運算元都擴容100倍。 // 對擴容的每條資料,都打上0~100的字首。 JavaPairRDD<String, Row> skewedRdd2 = rdd2.filter( new Function<Tuple2<Long,Row>, Boolean>() { private static final long serialVersionUID = 1L; @Override public Boolean call(Tuple2<Long, Row> tuple) throws Exception { return tuple._1.equals(skewedUserid); } }).flatMapToPair(new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() { private static final long serialVersionUID = 1L; @Override public Iterable<Tuple2<String, Row>> call( Tuple2<Long, Row> tuple) throws Exception { Random random = new Random(); List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>(); for(int i = 0; i < 100; i++) { list.add(new Tuple2<String, Row>(i + "_" + tuple._1, tuple._2)); } return list; } }); // 將rdd1中分拆出來的導致傾斜的key的獨立rdd,每條資料都打上100以內的隨機字首。 // 然後將這個rdd1中分拆出來的獨立rdd,與上面rdd2中分拆出來的獨立rdd,進行join。 JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD1 = skewedRDD.mapToPair( new PairFunction<Tuple2<Long,String>, String, String>() { private static final long serialVersionUID = 1L; @Override public Tuple2<String, String> call(Tuple2<Long, String> tuple) throws Exception { Random random = new Random(); int prefix = random.nextInt(100); return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2); } }) .join(skewedUserid2infoRDD) .mapToPair(new PairFunction<Tuple2<String,Tuple2<String,Row>>, Long, Tuple2<String, Row>>() { private static final long serialVersionUID = 1L; @Override public Tuple2<Long, Tuple2<String, Row>> call( Tuple2<String, Tuple2<String, Row>> tuple) throws Exception { long key = Long.valueOf(tuple._1.split("_")[1]); return new Tuple2<Long, Tuple2<String, Row>>(key, tuple._2); } }); // 將rdd1中分拆出來的包含普通key的獨立rdd,直接與rdd2進行join。 JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD2 = commonRDD.join(rdd2); // 將傾斜key join後的結果與普通key join後的結果,uinon起來。 // 就是最終的join結果。 JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD = joinedRDD1.union(joinedRDD2); |
解決方案七:使用隨機字首和擴容RDD進行join
方案適用場景:如果在進行join操作時,RDD中有大量的key導致資料傾斜,那麼進行分拆key也沒什麼意義,此時就只能使用最後一種方案來解決問題了。
方案實現思路:
- 該方案的實現思路基本和“解決方案六”類似,首先檢視RDD/Hive表中的資料分佈情況,找到那個造成資料傾斜的RDD/Hive表,比如有多個key都對應了超過1萬條資料。
- 然後將該RDD的每條資料都打上一個n以內的隨機字首。
- 同時對另外一個正常的RDD進行擴容,將每條資料都擴容成n條資料,擴容出來的每條資料都依次打上一個0~n的字首。
- 最後將兩個處理後的RDD進行join即可。
方案實現原理:將原先一樣的key通過附加隨機字首變成不一樣的key,然後就可以將這些處理後的“不同 key”分散到多個task中去處理,而不是讓一個task處理大量的相同key。該方案與“解決方案六”的不同之處就在於,上一種方案是儘量只對少數傾 斜key對應的資料進行特殊處理,由於處理過程需要擴容RDD,因此上一種方案擴容RDD後對記憶體的佔用並不大;而這一種方案是針對有大量傾斜key的情 況,沒法將部分key拆分出來進行單獨處理,因此只能對整個RDD進行資料擴容,對記憶體資源要求很高。
方案優點:對join型別的資料傾斜基本都可以處理,而且效果也相對比較顯著,效能提升效果非常不錯。
方案缺點:該方案更多的是緩解資料傾斜,而不是徹底避免資料傾斜。而且需要對整個RDD進行擴容,對記憶體資源要求很高。
方案實踐經驗:曾經開發一個資料需求的時候,發現一個join導致了資料傾斜。優化之前,作業的執行時間大約是60分鐘左右;使用該方案優化之後,執行時間縮短到10分鐘左右,效能提升了6倍。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 |
// 首先將其中一個key分佈相對較為均勻的RDD膨脹100倍。 JavaPairRDD<String, Row> expandedRDD = rdd1.flatMapToPair( new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() { private static final long serialVersionUID = 1L; @Override public Iterable<Tuple2<String, Row>> call(Tuple2<Long, Row> tuple) throws Exception { List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>(); for(int i = 0; i < 100; i++) { list.add(new Tuple2<String, Row>(0 + "_" + tuple._1, tuple._2)); } return list; } }); // 其次,將另一個有資料傾斜key的RDD,每條資料都打上100以內的隨機字首。 JavaPairRDD<String, String> mappedRDD = rdd2.mapToPair( new PairFunction<Tuple2<Long,String>, String, String>() { private static final long serialVersionUID = 1L; @Override public Tuple2<String, String> call(Tuple2<Long, String> tuple) throws Exception { Random random = new Random(); int prefix = random.nextInt(100); return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2); } }); // 將兩個處理後的RDD進行join即可。 JavaPairRDD<String, Tuple2<String, Row>> joinedRDD = mappedRDD.join(expandedRDD); |
解決方案八:多種方案組合使用
在實踐中發現,很多情況下,如果只是處理較為簡單的資料傾斜場景,那麼使用上述方案中的某一種基本就可以解決。但是如果要處理一個較為複雜的資料傾 斜場景,那麼可能需要將多種方案組合起來使用。比如說,我們針對出現了多個資料傾斜環節的Spark作業,可以先運用解決方案一和二,預處理一部分資料, 並過濾一部分資料來緩解;其次可以對某些shuffle操作提升並行度,優化其效能;最後還可以針對不同的聚合或join操作,選擇一種方案來優化其性 能。大家需要對這些方案的思路和原理都透徹理解之後,在實踐中根據各種不同的情況,靈活運用多種方案,來解決自己的資料傾斜問題。
shuffle調優
調優概述
大多數Spark作業的效能主要就是消耗在了shuffle環節,因為該環節包含了大量的磁碟IO、序列化、網路資料傳輸等操作。因此,如果要讓作 業的效能更上一層樓,就有必要對shuffle過程進行調優。但是也必須提醒大家的是,影響一個Spark作業效能的因素,主要還是程式碼開發、資源引數以 及資料傾斜,shuffle調優只能在整個Spark的效能調優中佔到一小部分而已。因此大家務必把握住調優的基本原則,千萬不要捨本逐末。下面我們就給 大家詳細講解shuffle的原理,以及相關引數的說明,同時給出各個引數的調優建議。
ShuffleManager發展概述
在Spark的原始碼中,負責shuffle過程的執行、計算和處理的元件主要就是ShuffleManager,也即shuffle管理器。而隨著Spark的版本的發展,ShuffleManager也在不斷迭代,變得越來越先進。
在Spark 1.2以前,預設的shuffle計算引擎是HashShuffleManager。該ShuffleManager而HashShuffleManager有著一個非常嚴重的弊端,就是會產生大量的中間磁碟檔案,進而由大量的磁碟IO操作影響了效能。
因此在Spark 1.2以後的版本中,預設的ShuffleManager改成了SortShuffleManager。SortShuffleManager相較於 HashShuffleManager來說,有了一定的改進。主要就在於,每個Task在進行shuffle操作時,雖然也會產生較多的臨時磁碟檔案,但 是最後會將所有的臨時檔案合併(merge)成一個磁碟檔案,因此每個Task就只有一個磁碟檔案。在下一個stage的shuffle read task拉取自己的資料時,只要根據索引讀取每個磁碟檔案中的部分資料即可。
下面我們詳細分析一下HashShuffleManager和SortShuffleManager的原理。
HashShuffleManager執行原理
未經優化的HashShuffleManager
下圖說明了未經優化的HashShuffleManager的原理。這裡我們先明確一個假設前提:每個Executor只有1個CPU core,也就是說,無論這個Executor上分配多少個task執行緒,同一時間都只能執行一個task執行緒。
我們先從shuffle write開始說起。shuffle write階段,主要就是在一個stage結束計算之後,為了下一個stage可以執行shuffle類的運算元(比如reduceByKey),而將每個 task處理的資料按key進行“分類”。所謂“分類”,就是對相同的key執行hash演算法,從而將相同key都寫入同一個磁碟檔案中,而每一個磁碟文 件都只屬於下游stage的一個task。在將資料寫入磁碟之前,會先將資料寫入記憶體緩衝中,當記憶體緩衝填滿之後,才會溢寫到磁碟檔案中去。
那麼每個執行shuffle write的task,要為下一個stage建立多少個磁碟檔案呢?很簡單,下一個stage的task有多少個,當前stage的每個task就要建立 多少份磁碟檔案。比如下一個stage總共有100個task,那麼當前stage的每個task都要建立100份磁碟檔案。如果當前stage有50個 task,總共有10個Executor,每個Executor執行5個Task,那麼每個Executor上總共就要建立500個磁碟檔案,所有 Executor上會建立5000個磁碟檔案。由此可見,未經優化的shuffle write操作所產生的磁碟檔案的數量是極其驚人的。
接著我們來說說shuffle read。shuffle read,通常就是一個stage剛開始時要做的事情。此時該stage的每一個task就需要將上一個stage的計算結果中的所有相同key,從各個 節點上通過網路都拉取到自己所在的節點上,然後進行key的聚合或連線等操作。由於shuffle write的過程中,task給下游stage的每個task都建立了一個磁碟檔案,因此shuffle read的過程中,每個task只要從上游stage的所有task所在節點上,拉取屬於自己的那一個磁碟檔案即可。
shuffle read的拉取過程是一邊拉取一邊進行聚合的。每個shuffle read task都會有一個自己的buffer緩衝,每次都只能拉取與buffer緩衝相同大小的資料,然後通過記憶體中的一個Map進行聚合等操作。聚合完一批數 據後,再拉取下一批資料,並放到buffer緩衝中進行聚合操作。以此類推,直到最後將所有資料到拉取完,並得到最終的結果。
優化後的HashShuffleManager
下圖說明了優化後的HashShuffleManager的原理。這裡說的優化,是指我們可以設定一個參 數,spark.shuffle.consolidateFiles。該引數預設值為false,將其設定為true即可開啟優化機制。通常來說,如果我 們使用HashShuffleManager,那麼都建議開啟這個選項。
開啟consolidate機制之後,在shuffle write過程中,task就不是為下游stage的每個task建立一個磁碟檔案了。此時會出現shuffleFileGroup的概念,每個 shuffleFileGroup會對應一批磁碟檔案,磁碟檔案的數量與下游stage的task數量是相同的。一個Executor上有多少個CPU core,就可以並行執行多少個task。而第一批並行執行的每個task都會建立一個shuffleFileGroup,並將資料寫入對應的磁碟檔案 內。
當Executor的CPU core執行完一批task,接著執行下一批task時,下一批task就會複用之前已有的shuffleFileGroup,包括其中的磁碟檔案。也就 是說,此時task會將資料寫入已有的磁碟檔案中,而不會寫入新的磁碟檔案中。因此,consolidate機制允許不同的task複用同一批磁碟檔案, 這樣就可以有效將多個task的磁碟檔案進行一定程度上的合併,從而大幅度減少磁碟檔案的數量,進而提升shuffle write的效能。
假設第二個stage有100個task,第一個stage有50個task,總共還是有10個Executor,每個Executor執行5個 task。那麼原本使用未經優化的HashShuffleManager時,每個Executor會產生500個磁碟檔案,所有Executor會產生 5000個磁碟檔案的。但是此時經過優化之後,每個Executor建立的磁碟檔案的數量的計算公式為:CPU core的數量 * 下一個stage的task數量。也就是說,每個Executor此時只會建立100個磁碟檔案,所有Executor只會建立1000個磁碟檔案。
SortShuffleManager執行原理
SortShuffleManager的執行機制主要分成兩種,一種是普通執行機制,另一種是bypass執行機制。當shuffle read task的數量小於等於spark.shuffle.sort.bypassMergeThreshold引數的值時(預設為200),就會啟用 bypass機制。
普通執行機制
下圖說明了普通的SortShuffleManager的原理。在該模式下,資料會先寫入一個記憶體資料結構中,此時根據不同的shuffle運算元, 可能選用不同的資料結構。如果是reduceByKey這種聚合類的shuffle運算元,那麼會選用Map資料結構,一邊通過Map進行聚合,一邊寫入內 存;如果是join這種普通的shuffle運算元,那麼會選用Array資料結構,直接寫入記憶體。接著,每寫一條資料進入記憶體資料結構之後,就會判斷一 下,是否達到了某個臨界閾值。如果達到臨界閾值的話,那麼就會嘗試將記憶體資料結構中的資料溢寫到磁碟,然後清空記憶體資料結構。
在溢寫到磁碟檔案之前,會先根據key對記憶體資料結構中已有的資料進行排序。排序過後,會分批將資料寫入磁碟檔案。預設的batch數量是 10000條,也就是說,排序好的資料,會以每批1萬條資料的形式分批寫入磁碟檔案。寫入磁碟檔案是通過Java的 BufferedOutputStream實現的。BufferedOutputStream是Java的緩衝輸出流,首先會將資料緩衝在記憶體中,當記憶體 緩衝滿溢之後再一次寫入磁碟檔案中,這樣可以減少磁碟IO次數,提升效能。
一個task將所有資料寫入記憶體資料結構的過程中,會發生多次磁碟溢寫操作,也就會產生多個臨時檔案。最後會將之前所有的臨時磁碟檔案都進行合併, 這就是merge過程,此時會將之前所有臨時磁碟檔案中的資料讀取出來,然後依次寫入最終的磁碟檔案之中。此外,由於一個task就只對應一個磁碟檔案, 也就意味著該task為下游stage的task準備的資料都在這一個檔案中,因此還會單獨寫一份索引檔案,其中標識了下游各個task的資料在檔案中的 start offset與end offset。
SortShuffleManager由於有一個磁碟檔案merge的過程,因此大大減少了檔案數量。比如第一個stage有50個task,總共 有10個Executor,每個Executor執行5個task,而第二個stage有100個task。由於每個task最終只有一個磁碟檔案,因此 此時每個Executor上只有5個磁碟檔案,所有Executor只有50個磁碟檔案。
bypass執行機制
下圖說明了bypass SortShuffleManager的原理。bypass執行機制的觸發條件如下:
- shuffle map task數量小於spark.shuffle.sort.bypassMergeThreshold引數的值。
- 不是聚合類的shuffle運算元(比如reduceByKey)。
此時task會為每個下游task都建立一個臨時磁碟檔案,並將資料按key進行hash然後根據key的hash值,將key寫入對應的磁碟檔案 之中。當然,寫入磁碟檔案時也是先寫入記憶體緩衝,緩衝寫滿之後再溢寫到磁碟檔案的。最後,同樣會將所有臨時磁碟檔案都合併成一個磁碟檔案,並建立一個單獨 的索引檔案。
該過程的磁碟寫機制其實跟未經優化的HashShuffleManager是一模一樣的,因為都要建立數量驚人的磁碟檔案,只是在最後會做一個磁碟 檔案的合併而已。因此少量的最終磁碟檔案,也讓該機制相對未經優化的HashShuffleManager來說,shuffle read的效能會更好。
而該機制與普通SortShuffleManager執行機制的不同在於:第一,磁碟寫機制不同;第二,不會進行排序。也就是說,啟用該機制的最大好處在於,shuffle write過程中,不需要進行資料的排序操作,也就節省掉了這部分的效能開銷。
shuffle相關引數調優
以下是Shffule過程中的一些主要引數,這裡詳細講解了各個引數的功能、預設值以及基於實踐經驗給出的調優建議。
spark.shuffle.file.buffer
- 預設值:32k
- 引數說明:該引數用於設定shuffle write task的BufferedOutputStream的buffer緩衝大小。將資料寫到磁碟檔案之前,會先寫入buffer緩衝中,待緩衝寫滿之後,才會溢寫到磁碟。
- 調優建議:如果作業可用的記憶體資源較為充足的話,可以適當增加這個引數的大小(比如64k),從而減少shuffle write過程中溢寫磁碟檔案的次數,也就可以減少磁碟IO次數,進而提升效能。在實踐中發現,合理調節該引數,效能會有1%~5%的提升。
spark.reducer.maxSizeInFlight
- 預設值:48m
- 引數說明:該引數用於設定shuffle read task的buffer緩衝大小,而這個buffer緩衝決定了每次能夠拉取多少資料。
- 調優建議:如果作業可用的記憶體資源較為充足的話,可以適當增加這個引數的大小(比如96m),從而減少拉取資料的次數,也就可以減少網路傳輸的次數,進而提升效能。在實踐中發現,合理調節該引數,效能會有1%~5%的提升。
spark.shuffle.io.maxRetries
- 預設值:3
- 引數說明:shuffle read task從shuffle write task所在節點拉取屬於自己的資料時,如果因為網路異常導致拉取失敗,是會自動進行重試的。該引數就代表了可以重試的最大次數。如果在指定次數之內拉取 還是沒有成功,就可能會導致作業執行失敗。
- 調優建議:對於那些包含了特別耗時的shuffle操作的作業,建議增加重試最大次數(比如60次),以避免由於JVM的full gc或者網路不穩定等因素導致的資料拉取失敗。在實踐中發現,對於針對超大資料量(數十億~上百億)的shuffle過程,調節該引數可以大幅度提升穩定 性。
spark.shuffle.io.retryWait
- 預設值:5s
- 引數說明:具體解釋同上,該引數代表了每次重試拉取資料的等待間隔,預設是5s。
- 調優建議:建議加大間隔時長(比如60s),以增加shuffle操作的穩定性。
spark.shuffle.memoryFraction
- 預設值:0.2
- 引數說明:該引數代表了Executor記憶體中,分配給shuffle read task進行聚合操作的記憶體比例,預設是20%。
- 調優建議:在資源引數調優中講解過這個引數。如果記憶體充足,而且很少使用持久化操作,建議調高這個比例,給shuffle read的聚合操作更多記憶體,以避免由於記憶體不足導致聚合過程中頻繁讀寫磁碟。在實踐中發現,合理調節該引數可以將效能提升10%左右。
spark.shuffle.manager
- 預設值:sort
- 引數說明:該引數用於設定ShuffleManager的型別。Spark 1.5以後,有三個可選項:hash、sort和tungsten-sort。HashShuffleManager是Spark 1.2以前的預設選項,但是Spark 1.2以及之後的版本預設都是SortShuffleManager了。tungsten-sort與sort類似,但是使用了tungsten計劃中的 堆外記憶體管理機制,記憶體使用效率更高。
- 調優建議:由於SortShuffleManager預設會對資料進行排序,因此如果你的業務邏輯中需要該排序機制的話,則使用預設的 SortShuffleManager就可以;而如果你的業務邏輯不需要對資料進行排序,那麼建議參考後面的幾個引數調優,通過bypass機制或優化的 HashShuffleManager來避免排序操作,同時提供較好的磁碟讀寫效能。這裡要注意的是,tungsten-sort要慎用,因為之前發現了 一些相應的bug。
spark.shuffle.sort.bypassMergeThreshold
- 預設值:200
- 引數說明:當ShuffleManager為SortShuffleManager時,如果shuffle read task的數量小於這個閾值(預設是200),則shuffle write過程中不會進行排序操作,而是直接按照未經優化的HashShuffleManager的方式去寫資料,但是最後會將每個task產生的所有臨 時磁碟檔案都合併成一個檔案,並會建立單獨的索引檔案。
- 調優建議:當你使用SortShuffleManager時,如果的確不需要排序操作,那麼建議將這個引數調大一些,大於shuffle read task的數量。那麼此時就會自動啟用bypass機制,map-side就不會進行排序了,減少了排序的效能開銷。但是這種方式下,依然會產生大量的磁 盤檔案,因此shuffle write效能有待提高。
spark.shuffle.consolidateFiles
- 預設值:false
- 引數說明:如果使用HashShuffleManager,該引數有效。如果設定為true,那麼就會開啟consolidate機制,會大幅度 合併shuffle write的輸出檔案,對於shuffle read task數量特別多的情況下,這種方法可以極大地減少磁碟IO開銷,提升效能。
- 調優建議:如果的確不需要SortShuffleManager的排序機制,那麼除了使用bypass機制,還可以嘗試將 spark.shffle.manager引數手動指定為hash,使用HashShuffleManager,同時開啟consolidate機制。在 實踐中嘗試過,發現其效能比開啟了bypass機制的SortShuffleManager要高出10%~30%。
寫在最後的話
本文分別講解了開發過程中的優化原則、執行前的資源引數設定調優、執行中的資料傾斜的解決方案、為了精益求精的shuffle調優。希望大家能夠在 閱讀本文之後,記住這些效能調優的原則以及方案,在Spark作業開發、測試以及執行的過程中多嘗試,只有這樣,我們才能開發出更優的Spark作業,不斷提升其效能。