Flink 是一個領先的流計算框架,國內有諸多大廠正在使用 Flink 搭建資料分析系統、實時處理系統等等。阿里巴巴在19年貢獻了其 Blink 引擎,目前可以通過 SQL 定義流計算任務。社群也計劃在 1.10 版本加大對 SQL DDL 語句的支援,Flink 正在逐步成為一個批流一體的資料處理引擎。
我今天以 Linux 為例講述一下怎麼樣建一個單機的 Flink。
開始試驗之前,需要有一臺 Liun 作業系統的計算機。如果沒有,以去買個公有云的按量付費的主機來做實驗哦 ~ ~
首先,需要安裝 Java 。 本文以 OpenJDK 為例,安裝完成後執行 java -version
,應該顯示如下資訊:
$ java -version
openjdk version "1.8.0_232"
OpenJDK Runtime Environment (build 1.8.0_232-b09)
OpenJDK 64-Bit Server VM (build 25.232-b09, mixed mode)
複製程式碼
隨後,下載安裝包,國內伺服器建議使用清華大學的映象哦:
$ wget http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.9.1/flink-1.9.1-bin-scala_2.11.tgz
複製程式碼
解壓,並把專案放到 usr 目錄:
$ tar xzf flink-*.tgz
$ mv flink-1.9.1 /usr/local/flink
複製程式碼
嘗試執行以下語句,看看是否能執行成功:
$ /usr/local/flink/bin/start-cluster.sh
複製程式碼
筆者為了方便,把bin放到path裡面了, 這樣的話直接登入到伺服器後執行 start-cluster.sh
和 stop-cluster.sh
就能啟動和停止 Flink 服務。(當然,大家還是需要根據實際情況決定是否這麼配置,以免引起衝突...):
$ export PATH=$PATH:"/usr/local/flink/bin"
複製程式碼
預期將會輸出以下的資訊:
Starting cluster.
Starting standalonesession daemon on host xxxx.
Starting taskexecutor daemon on host xxxx.
複製程式碼
如果成功輸出,登入以下連結: http://<你的玩伺服器ip>:8081
你應該會看到如下的一個介面,這說明你的 Flink 單機環境安裝成功了
未完待續~