Flink on Yarn三部曲之三:提交Flink任務

程式設計師欣宸發表於2022-12-04

歡迎訪問我的GitHub

https://github.com/zq2599/blog_demos

內容:所有原創文章分類彙總及配套原始碼,涉及Java、Docker、Kubernetes、DevOPS等;

本文是《Flink on Yarn三部曲》系列的終篇,先簡單回顧前面的內容:

  1. 《Flink on Yarn三部曲之一:準備工作》:準備好機器、指令碼、安裝包;
  2. 《Flink on Yarn三部曲之二:部署和設定》:完成CDH和Flink部署,並在管理頁面做好相關的設定;

現在Flink、Yarn、HDFS都就緒了,接下來實踐提交Flink任務到Yarn執行;

全文連結

  1. 《Flink on Yarn三部曲之一:準備工作》
  2. 《Flink on Yarn三部曲之二:部署和設定》
  3. 《Flink on Yarn三部曲之三:提交Flink任務》

實踐之前,對Flink on YARN先簡單瞭解一下,如下圖所示,Flink on Yarn在使用的時候分為兩種模式,Job ModeSession Mode
在這裡插入圖片描述
Session Mode:在YARN中提前初始化一個Flink叢集,以後所有Flink任務都提交到這個叢集,如下圖:
在這裡插入圖片描述
Job Mode:每次提交Flink任務都會建立一個專用的Flink叢集,任務完成後資源釋放,如下圖:
在這裡插入圖片描述
接下來分別實戰這兩種模式;

準備實戰用的資料(CDH伺服器)

接下來提交的Flink任務是經典的WordCount,先在HDFS中準備一份文字檔案,後面提交的Flink任務都會讀取這個檔案,統計裡面每個單詞的數字,準備文字的步驟如下:

  1. SSH登入CDH伺服器;
  2. 切換到hdfs賬號:su - hdfs
  3. 下載實戰用的txt檔案:
wget https://github.com/zq2599/blog_demos/blob/master/files/GoneWiththeWind.txt
  1. 建立hdfs資料夾:hdfs dfs -mkdir /input
  2. 將文字檔案上傳到/input目錄:hdfs dfs -put ./GoneWiththeWind.txt /input

準備工作完成,可以提交任務試試了。

Session Mode實戰

  1. SSH登入CDH伺服器;
  2. 切換到hdfs賬號:su - hdfs
  3. 進入目錄:/opt/flink-1.7.2/
  4. 執行如下命令建立Flink叢集,-n參數列示TaskManager的數量,-jm表示JobManager的記憶體大小,-tm表示每個TaskManager的記憶體大小:
./bin/yarn-session.sh -n 2 -jm 1024 -tm 1024
  1. 建立成功後,控制檯輸出如下圖,注意紅框中的提示,表明可以通過38301埠訪問Flink:
    在這裡插入圖片描述
  2. 瀏覽器訪問CDH伺服器的38301埠,可見Flink服務已經啟動:
    在這裡插入圖片描述
  3. 瀏覽器訪問CDH伺服器的8088埠,可見YARN的Application(即Flink叢集)建立成功,如下圖,紅框中是任務ID,稍後結束Application的時候會用到此ID:
    在這裡插入圖片描述
  4. 再開啟一個終端,SSH登入CDH伺服器,切換到hdfs賬號,進入目錄:/opt/flink-1.7.2
  5. 執行以下命令,就會提交一個Flink任務(安裝包自帶的WordCount例子),並指明將結果輸出到HDFS的wordcount-result.txt檔案中:
bin/flink run ./examples/batch/WordCount.jar \
-input hdfs://192.168.50.134:8020/input/GoneWiththeWind.txt \
-output hdfs://192.168.50.134:8020/wordcount-result.txt
  1. 執行完畢後,控制檯輸出如下:
    在這裡插入圖片描述
  2. flink的WordCount任務結果儲存在hdfs,我們將結果取出來看看:hdfs dfs -get /wordcount-result.txt
  3. vi開啟wordcount-result.txt檔案,如下圖,可見任務執行成功,指定文字中的每個單詞數量都統計出來了:
    在這裡插入圖片描述
  4. 瀏覽器訪問Flink頁面(CDH伺服器的38301埠),也能看到任務的詳細情況:
    在這裡插入圖片描述
  5. 銷燬這個Flink叢集的方法是在控制檯執行命令:yarn application -kill application_1580173588985_0002
    在這裡插入圖片描述
    Session Mode的實戰就完成了,接下來我們來嘗試Job Mode;

Job Mode

  1. 執行以下命令,建立一個Flink叢集,該叢集只用於執行引數中指定的任務(wordCount.jar),結果輸出到hdfs的wordcount-result-1.txt檔案:
bin/flink run -m yarn-cluster \
-yn 2 \
-yjm 1024 \
-ytm 1024 \
./examples/batch/WordCount.jar \
-input hdfs://192.168.50.134:8020/input/GoneWiththeWind.txt \
-output hdfs://192.168.50.134:8020/wordcount-result-1.txt
  1. 控制檯輸出如下,表明任務執行完成:
    在這裡插入圖片描述
  2. 如果您的記憶體和CPU核數充裕,可以立即執行以下命令再建立一個Flink叢集,該叢集只用於執行引數中指定的任務(wordCount.jar),結果輸出到hdfs的wordcount-result-2.txt檔案:
bin/flink run -m yarn-cluster \
-yn 2 \
-yjm 1024 \
-ytm 1024 \
./examples/batch/WordCount.jar \
-input hdfs://192.168.50.134:8020/input/GoneWiththeWind.txt \
-output hdfs://192.168.50.134:8020/wordcount-result-2.txt
  1. 在YARN管理頁面可見任務已經結束:
    在這裡插入圖片描述
  2. 執行命令hdfs dfs -ls /檢視結果檔案,已經成功生成:
    在這裡插入圖片描述
  3. 執行命令hdfs dfs -get /wordcount-result-1.txt下載結果檔案到本地,檢查資料正常;
  4. 至此,Flink on Yarn的部署、設定、提交都實踐完成,《Flink on Yarn三部曲》系列也結束了,如果您也在學習Flink,希望本文能夠給您一些參考,也建議您根據自身情況和需求,修改ansible指令碼,搭建更適合自己的環境;

歡迎關注公眾號:程式設計師欣宸

微信搜尋「程式設計師欣宸」,我是欣宸,期待與您一同暢遊Java世界...
https://github.com/zq2599/blog_demos

相關文章