一文讀懂Apache Flink技術

大数据文摘發表於2018-10-29

本文來自9月1日在成都舉行的Apache Flink China Meetup,雲邪的分享。

作者:雲邪

整理:李澤聚(Flink China社群志願者)

校對:雲邪 / 韓非(Flink China社群志願者)

Flink介紹

Flink是一款分散式的計算引擎,它可以用來做批處理,即處理靜態的資料集、歷史的資料集;也可以用來做流處理,即實時地處理一些實時資料流,實時地產生資料的結果;也可以用來做一些基於事件的應用,比如說滴滴通過Flink CEP實現實時監測使用者及司機的行為流來判斷使用者或司機的行為是否正當。

總而言之,Flink是一個Stateful Computations Over Streams,即資料流上的有狀態的計算。這裡面有兩個關鍵字,一個是Streams,Flink認為有界資料集是無界資料流的一種特例,所以說有界資料集也是一種資料流,事件流也是一種資料流。Everything is streams,即Flink可以用來處理任何的資料,可以支援批處理、流處理、AI、MachineLearning等等。另外一個關鍵詞是Stateful,即有狀態計算。有狀態計算是最近幾年來越來越被使用者需求的一個功能。舉例說明狀態的含義,比如說一個網站一天內訪問UV數,那麼這個UV數便為狀態。Flink提供了內建的對狀態的一致性的處理,即如果任務發生了Failover,其狀態不會丟失、不會被多算少算,同時提供了非常高的效能。

那Flink的受歡迎離不開它身上還有很多的標籤,其中包括效能優秀(尤其在流計算領域)、高可擴充套件性、支援容錯,是一種純記憶體式的一個計算引擎,做了記憶體管理方面的大量優化,另外也支援eventime的處理、支援超大狀態的Job(在阿里巴巴中作業的state大小超過TB的是非常常見的)、支援exactly-once的處理。

Flink 基石

Flink之所以能這麼流行,離不開它最重要的四個基石:Checkpoint、State、Time、Window。

首先是Checkpoint機制,這是Flink最重要的一個特性。Flink基於Chandy-Lamport演算法實現了一個分散式的一致性的快照,從而提供了一致性的語義。Chandy-Lamport演算法實際上在1985年的時候已經被提出來,但並沒有被很廣泛的應用,而Flink則把這個演算法發揚光大了。Spark最近在實現Continue streaming,Continue streaming的目的是為了降低它處理的延時,其也需要提供這種一致性的語義,最終採用Chandy-Lamport這個演算法,說明Chandy-Lamport演算法在業界得到了一定的肯定。

提供了一致性的語義之後,Flink為了讓使用者在程式設計時能夠更輕鬆、更容易地去管理狀態,還提供了一套非常簡單明瞭的State API,包括裡面的有ValueState、ListState、MapState,近期新增了BroadcastState,使用State API能夠自動享受到這種一致性的語義。

除此之外,Flink還實現了Watermark的機制,能夠支援基於事件的時間的處理,或者說基於系統時間的處理,能夠容忍資料的延時、容忍資料的遲到、容忍亂序的資料

另外流計算中一般在對流資料進行操作之前都會先進行開窗,即基於一個什麼樣的視窗上做這個計算。Flink提供了開箱即用的各種視窗,比如滑動視窗、滾動視窗、會話視窗以及非常靈活的自定義的視窗。

Flink API

Flink分層API主要有三層,如下圖:

一文讀懂Apache Flink技術
最底層是ProcessFunction,它能夠提供非常靈活的功能,它能夠訪問各種各樣的State,用來註冊一些timer,利用timer回撥的機制能夠實現一些基於事件驅動的一些應用。

之上是DataStream API,最上層是SQL/Table API的一種High-level API。

Flink的用途

Flink能用來做什麼?回顧一下Flink up前幾站的分享,有非常多的嘉賓分享了他們在自己公司裡面基於Flink做的一些實踐,包括攜程、唯品會、餓了麼、滴滴、頭條等等。他們的應用場景包括實時的機器學習,實時的統計分析,實時的異常監測等等。這些實踐案例的共同點就是都用來做實時性的任務。

Flink Title的變化

早期Flink是這樣介紹自己的:“我是一個開源的流批統一的計算引擎”,當時跟Spark有點類似。後來Spark改成了一長串的文字,裡面有各種各樣的形容詞:“我是一個分散式的、高效能的、高可用的、高精確的流計算系統”。最近Spark又進行了修改:“我是一個資料流上的有狀態的計算”。

通過觀察這個變化,可以發現Flink社群重心的變遷,即社群現在主要精力是放在打造它的流計算引擎上。先在流計算領域紮根,領先其他對手幾年,然後藉助社群的力量壯大社群,再借助社群的力量擴充套件它的生態。

阿里巴巴Flink是這樣介紹自己的:“Flink是一個大資料量處理的統一的引擎”。這個“統一的引擎”包括流處理、批處理、AI、MachineLearning、圖計算等等。

Flink 過去與現在

Flink High-Level API的歷史變遷

在Flink 1.0.0時期,Table API和CEP這兩個框架被首次加入到倉庫裡面,同時社群對於SQL的需求很大。SQL和Table API非常相近,都是一種處理結構化資料的一種High-Level語言,實現上可以共用很多內容。所以在1.1.0裡面,社群基於Apache Calcite對整個非Table的Module做了重大的重構,使得Table API和SQL共用了大部分的程式碼,同時進行了支援。

在Flink 1.2.0時期,在Table API和SQL上支援Tumbling Window、Sliding Window、Session Window這些視窗。

在Flink 1.3.0時期,首次引用了Dynamic Table這個概念,藉助Dynamic Table,流和批之間是可以相互進行轉換的。流可以是一張表,表也可以是一張流,這是流批統一的基礎之一。Retraction機制是Dynamic Table最重要的一個功能,基於Retraction才能夠正確地實現多級Application、多級Join,才能夠保證語意與結果的一個正確性。同時該版本支援了CEP運算元的可控性。

在Flink 1.5.0時期,支援了Join操作,包括window Join以及非window Join,還新增了SQL CLI支援。SQL CLI提供了一個類似shell命令的對話方塊,可以互動式執行查詢。

Flink API的歷史變遷

在Flink 1.0.0時期,加入了State API,即ValueState、ReducingState、ListState等等。State API主要方便了DataStream使用者,使其能夠更加容易地管理狀態。

在Flink 1.1.0時期,提供了對SessionWindow以及遲到資料處理的支援。

在Flink 1.2.0時期,提供了ProcessFunction,一個Low-level的API。基於ProcessFunction使用者可以比較靈活地實現基於事件的一些應用。

在Flink 1.3.0時期,提供了Side outputs功能。一般運算元的輸出只有一種輸出的型別,但是有些時候可能需要輸出另外的型別,比如把一些異常資料、遲到資料以側邊流的形式進行輸出,並交給異常節點進行下一步處理,這就是Side outputs。

在Flink 1.5.0時期,加入了BroadcastState。BroadcastState用來儲存上游被廣播過來的資料,這個節點上的很多N個併發上存在的BroadcastState裡面的資料都是一模一樣的,因為它是從上游廣播來的。基於這種State可以比較好地去解決不等值Join這種場景。比如一個Query裡面寫的“SLECECT * FROM L JOIN R WHERE L.a > R.b”,也就是說我們需要把左表和右表裡面所有A大於B的資料都關聯輸出出來。在以前的實現中,由於沒有Join等值條件,就無法按照等值條件來做KeyBy的Shuffle,只能夠將所有的資料全部彙集到一個節點上,一個單併發的節點上進行處理,而這個單併發的節點就會成為整個Job的瓶頸。而有了BroadcastState以後就可以做一些優化:因為左表資料量比較大,右表資料量比較小,所以選擇把右表進行廣播,把左表按照它某一個進行均勻分佈的key,做keyby shuffle,shuffle到下游的N個Join的節點,Join的節點裡面會存兩份State,左邊state和右邊state,左邊state用來存左邊資料流的state,是一個keyedState,因為它是按它某一個key做keyby分發下來的。右邊State是一個BroadcastState,所有的Join節點裡面的BroadcastState裡面存的資料都是一模一樣的,因為均為從上游廣播而來。所有keyedState進行併發處理,之後將keyedState集合進行合併便等於左邊資料流的全集處理結果。於是便實現了這個Join節點的可擴充,通過增加join節點的併發,可以比較好地提升Job處理能力。除了不等值Join場景,BroadcastState還可以比較有效地解決像CAP上的動態規則。

在Flink 1.6.0時期,提供了State TTL引數、DataStream Interval Join功能。State TTL實現了在申請某個State時候可以在指定一個TTL引數,指定該state過了多久之後需要被系統自動清除。在這個版本之前,如果使用者想要實現這種狀態清理操作需要使用ProcessFunction註冊一個Timer,然後利用Timer的回撥手動把這個State清除。從該版本開始,Flink框架可以基於TTL原生地解決這件事情。DataStream Interval Join功能即含有區間間隔的Join,比如說左流Join右流前後幾分鐘之內的資料,這種叫做Interval Join。

Flink Checkpoint & Recovery的歷史變遷

Checkpoint機制在Flink很早期的時候就已經支援,是Flink一個很核心的功能,Flink社群也一直致力於努力把Checkpoint效率提升,以及換成FailOver之後它的Recallable效率的提升。

在Flink 1.0.0時期,提供了RocksDB的支援,這個版本之前所有的狀態都只能存在程式的記憶體裡面,這個記憶體總有存不下的一天,如果存不下則會發生OOM。如果想要存更多資料、更大量State就要用到RocksDB。RocksDB是一款基於檔案的嵌入式資料庫,它會把資料存到磁碟,但是同時它又提供高效讀寫能力。所以使用RocksDB不會發生OOM這種事情。在Flink1.1.0裡面,提供了純非同步化的RocksDB的snapshot。以前版本在做RocksDB的snapshot時它會同步阻塞主資料流的處理,很影響吞吐量,即每當checkpoint時主資料流就會卡住。純非同步化處理之後不會卡住資料流,於是吞吐量也得到了提升。

在Flink 1.2.0時期,引入了Rescalable keys和operate state的概念,它支援了一個Key State的可擴充以及operator state的可擴充。 在Flink 1.3.0時期,引入了增量的checkpoint這個比較重要的功能。只有基於增量的checkpoint才能更好地支援含有超大State的Job。在阿里內部,這種上TB的State是非常常見。如果每一次都把全量上TB的State都刷到遠端的HDFS上那麼這個效率是很低下的。而增量checkpoint只是把checkpoint間隔新增的那些狀態發到遠端做儲存,每一次checkpoint發的資料就少了很多,效率得到提高。在這個版本里面還引入了一個細粒度的recovery,細粒度的recovery在做恢復的時候,有時不需要對整個Job做恢復,可能只需要恢復這個Job中的某一個子圖,這樣便能夠提高恢復效率。

在Flink 1.5.0時期,引入了Task local 的State的recovery。因為基於checkpoint機制,會把State持久化地儲存到某一個遠端儲存,比如HDFS,當發生Failover的時候需要重新把這個資料從遠端HDFS再download下來,如果這個狀態特別大那麼該download操作的過程就會很漫長,導致Failover恢復所花的時間會很長。Task local state recovery提供的機制是當Job發生Failover之後,能夠保證該Job狀態在本地不會丟失,進行恢復時只需在本地直接恢復,不需從遠端HDFS重新把狀態download下來,於是就提升了Failover recovery的效率。

Flink Runtime的歷史變遷

Runtime的變遷歷史是非常重要的。

在Flink 1.2.0時期,提供了Async I/O功能。如果任務內部需要頻繁地跟外部儲存做查詢訪問,比如說查詢一個HBase表,在該版本之前每次查詢的操作都是阻塞的,會頻繁地被I/O的請求卡住。當加入非同步I/O之後就可以同時地發起N個非同步查詢的請求,這樣便提升了整個job的吞吐量,同時Async I/O又能夠保證該job的Async語義。

在Flink 1.3.0時期,引入了HistoryServer的模組。HistoryServer主要功能是當job結束以後,它會把job的狀態以及資訊都進行歸檔,方便後續開發人員做一些深入排查。

在Flink 1.4.0時期,提供了端到端的exactly once的語義保證,Flink中所謂exactly once一般是指Flink引擎本身的exactly once。如果要做到從輸入到處理再到輸出,整個端到端整體的exactly once的話,它需要輸出元件具備commit功能。在kafka老版本中不存在commit功能,從最近的1.1開始有了這個功能,於是Flink很快便實現了端到端exactly once。

在Flink 1.5.0時期,Flink首次對外正式地提到新的部署模型和處理模型。新的模型開發工作已經持續了很久,在阿里巴巴內部這個新的處理模型也已經執行了有兩年以上,該模型的實現對Flink內部程式碼改動量特別大,可以說是自Flink專案建立以來,Runtime改動最大的一個改進。簡而言之,它的一個特性就是它可以使得在使用YARN、Mesos這種排程系統時,可以更加更好地動態分配資源、動態釋放資源、提高資源利用性,還有提供更好的jobs之間的隔離。最後是在這個版本中,Flink對其網路站進行了一個基本重構。

Flink 網路棧重構

在流計算中有兩個用來衡量效能的指標:延遲和吞吐。一般來講如果想要更高吞吐就要犧牲一些延遲,如果想要更低的延遲就要犧牲一定的吞吐。但是網路棧的重構卻實現了延遲和吞吐的同時提升,這主要得益於它兩方面的工作:第一個是基於信用的流控,另一個是基於事件的I/O。一個用來提高它的吞吐,另一個用來降低它的延遲。

在介紹流控之前需要先介紹一下現有的網路棧。Flink中TaskManager就是用來管理各個task的角色,它是以程式為單位;task用來執行使用者程式碼,以執行緒為單位。當tasks之間有資料傳輸的互動的時候就要建立網路的連線,如果2秒之間都建立一個TCP連線的話,那麼這個TCP連線會被嚴重浪費,所以Flink在兩個TaskManager之間建立一個TCP連線,即兩個程式之間只存在一個連線。各個task之間以TCP channel的方式來共享TCP的連線,這樣整個job中就不會有太多的TCP連線。

Flink 反壓

反壓的意思是當某一個task的處理效能跟不上輸入速率的時候,其輸入端的Buffer就會被填滿,當輸入端Buffer被填滿的時候就會導致TCP的讀取被暫停。TCP的讀取被暫停之後,就會導致上游輸出端的Buffer池越積越多,因為下游此時已經不再進行消費。當上遊輸出端的Buffer池也堆滿的時候, TCP通道就會被關閉,其內部所有的TCP channel也會被關閉。從而上游task就會逐級的向上遊進行反壓,這是整體的反壓流程,所以說Flink以前的反壓機制是比較原生態、比較粗暴的,因為其控制力度很大,整個TCP中一旦某一個Task效能跟不上,就會把整個TCP連線關掉。如下圖所示:

一文讀懂Apache Flink技術
右下角的task雖然處理跟不上了,但上面的task仍然可以繼續進行處理。左邊這些上游資料可以繼續發給右上角的task進行處理。但是由於現在整個的TCP連線都被關閉,導致右上角task同樣收不到資料,整體吞吐量實際上是下降的趨勢。為了優化這個功能就需要做到更加細密度的流控,目前是關閉整個TCP連線,優化措施就是需要對TCP channel進行控制,當某個task處理不過來時只需要該Task對應的TCP channel,其它TCP channel不受影響。優化實現方式就是基於信用的流控。

基於信用的流控的核心思想就是基於信用額度的消費。比如銀行做貸款,為了防止壞賬太多,它會對每一個人評估其信用額度,當發放貸款時貸款不會超過這個人能承受的額度。基於這種方式,它能夠一方面不會產生太多壞賬,另一方面可以充分地把銀行的資金利用起來。基於信用的流控就是基於這種思想,Flink中所謂的信用額度,就是指這個下游消費端的可用的Buffer數。如下圖:

一文讀懂Apache Flink技術

該圖左邊是指傳送端,有四個輸出的佇列,每個佇列裡面的方塊代表輸出Buffer,即準備丟給下游處理的Buffer。右邊是消費端,消費端也有四個佇列,這四個佇列裡面也有一些Buffer塊,這些Buffer塊是空閒的Buffer,準備用來接收上游發給自己的資料。

上面提到基於資料的流控中所謂的信用就是指這個消費端它可用的Buffer數,代表當前還能夠消費多少資料,消費端首先會向上遊反饋當前的信用是多少, producer端只會向信用額度大於0的下游進行傳送,對於信用額度如果為0的就不再傳送資料。這樣整個網路的利用率便得到了很大的提升,不會發生某些Buffer被長時間的停留在網路的鏈路上的情況。基於信用的流控主要有以下兩方面的優化提升:一個是當某一個task發生反壓處理跟不上的時候,不會發生所有的task都卡住,這種做法使吞吐量得到了很大的提升,在阿里內部用雙11大屏作業進行測試,這種新的流控演算法會得到20%的提升;另一個是基於事件的I/O,Flink在網路端寫資料時會先往一個Buffer塊裡面寫資料,這個Buffer塊是一個32K的長度的單位,即32K的大小,當這個Buffer塊被填滿的時候就會輸出到網路裡面,或者如果資料流比較慢,沒辦法很快填滿的話,那麼會等待一個超時,預設一個100毫秒,即如果100毫秒內還沒被填滿那麼這個Buffer也會被輸出到網路裡面。此時若是在以前版本中Flink延遲可能是在100毫秒以內,最差的情況下是到100毫秒,因為需要到100毫秒等這個Buffer發出去。如果要得到更低的延時,現在的做法就會將這個Buffer直接加入到輸出的佇列,但是還是保持繼續往這個Buffer塊裡面寫資料,當網路裡面有容量時這個Buffer塊便會立刻被髮出去,如果網路現在也比較繁忙,那就繼續填充這個Buffer,這樣吞吐也會比較好一點。基於這種演算法,Flink的延時幾乎是完美的,可以看到它的曲線基本上是低於10毫秒的,這也充分利用了網路的容量,幾乎對吞吐沒有影響。

作者簡介

一文讀懂Apache Flink技術

活動預告

11月4日,Apache Flink China社群第二季Meetup巡展開啟。

來自阿里、匯智、菜鳥、袋鼠雲、有讚的技術專家,將為你展現:

  1. 如何擴充套件Flink SQL實現流與維表的join
  2. 如何通過平臺提高運維的效率,降低調優的成本
  3. Flink批處理與ML的嘗試
  4. Apache RocketMQ與Apache Flink的整合 …………

報名傳送門:www.huodongxing.com/event/14632…

相關文章