Flink 入門篇之 在 Linux 上搭建 Flink 的單機環境

SteveOu發表於2020-01-08

Flink 是一個領先的流計算框架,國內有諸多大廠正在使用 Flink 搭建資料分析系統、實時處理系統等等。阿里巴巴在19年貢獻了其 Blink 引擎,目前可以通過 SQL 定義流計算任務。社群也計劃在 1.10 版本加大對 SQL DDL 語句的支援,Flink 正在逐步成為一個批流一體的資料處理引擎。

我今天以 Linux 為例講述一下怎麼樣建一個單機的 Flink。

開始試驗之前,需要有一臺 Liun 作業系統的計算機。如果沒有,以去買個公有云的按量付費的主機來做實驗哦 ~ ~ 首先,需要安裝 Java 。 本文以 OpenJDK 為例,安裝完成後執行 java -version,應該顯示如下資訊:

$ java -version
openjdk version "1.8.0_232"
OpenJDK Runtime Environment (build 1.8.0_232-b09)
OpenJDK 64-Bit Server VM (build 25.232-b09, mixed mode)
複製程式碼

隨後,下載安裝包,國內伺服器建議使用清華大學的映象哦:

$ wget http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.9.1/flink-1.9.1-bin-scala_2.11.tgz
複製程式碼

解壓,並把專案放到 usr 目錄:

$ tar xzf flink-*.tgz
$ mv flink-1.9.1 /usr/local/flink 
複製程式碼

嘗試執行以下語句,看看是否能執行成功:

$ /usr/local/flink/bin/start-cluster.sh
複製程式碼

筆者為了方便,把bin放到path裡面了, 這樣的話直接登入到伺服器後執行 start-cluster.shstop-cluster.sh 就能啟動和停止 Flink 服務。(當然,大家還是需要根據實際情況決定是否這麼配置,以免引起衝突...):

$ export PATH=$PATH:"/usr/local/flink/bin"
複製程式碼

預期將會輸出以下的資訊:

Starting cluster.
Starting standalonesession daemon on host xxxx.
Starting taskexecutor daemon on host xxxx.
複製程式碼

如果成功輸出,登入以下連結: http://<你的玩伺服器ip>:8081

你應該會看到如下的一個介面,這說明你的 Flink 單機環境安裝成功了

Flink Web page

未完待續~

相關文章