新一代大資料計算引擎 Flink從入門到實戰 (12) - flink 部署和作業提交
1 flink 原始碼編譯
- 根據 hadoop 和 scala 的版本
- 安裝 JDK1.8 和 maven
mvn clean install -DskipTests -Dfast -Pvendor-repos -Dhadoop.version=2.6.0-cdh5.14.2
2 flink onYARN 的2種方式
https://ci.apache.org/projects/flink/flink-docs-release-1.6/ops/deployment/yarn_setup.html
2.1 第一種方式
-
Start a long-running Flink cluster on YARN
-
啟動 hadoop 叢集
- 執行 flink
yarn-session.sh -n 1 -jm 1024m -tm 1024m
- 下載測試資料
wget -O LICENSE-2.0.txt http://www.apache.org/licenses/LICENSE-2.0.txt
- 把下載的資料傳到 hdfs 的根目錄
- 執行任務
./bin/flink run ./examples/batch/WordCount.jar \
-input hdfs://master:8020/LICENSE-2.0.txt \
-output hdfs://master:8020/wordcount-result.txt
2.2 第 2 種方式
- 殺掉第一種作業
yarn application -kill application_1601533355219_0001
- 執行作業
./bin/flink run -m yarn-cluster -yn 2 ./examples/batch/WordCount.jar
相關文章
- 新一代大資料計算引擎 Flink從入門到實戰 (14) -監控和調優大資料
- Flink從入門到放棄-大綱
- Apache Flink 為什麼能夠成為新一代大資料計算引擎?Apache大資料
- 實時計算Flink——快速入門概述
- flink快速入門(部署+flink-sql)SQL
- Flink從入門到精通系列文章
- Flink大資料計算的機遇與挑戰大資料
- 大資料“重磅炸彈”:實時計算框架 Flink大資料框架
- 伍翀 :大資料實時計算Flink SQL解密大資料SQL解密
- 《Flink入門與實戰》簡介
- 本地環境提交flink on yarn作業Yarn
- 《從0到1學習Flink》—— Flink 讀取 Kafka 資料批量寫入到 MySQLKafkaMySql
- Flink 實踐教程-入門(8): 簡單 ETL 作業
- Flink 實踐教程 - 入門(4):讀取 MySQL 資料寫入到 ESMySql
- Hadoop大資料探勘從入門到進階實戰Hadoop大資料
- 前端大資料視覺化從入門到實戰前端大資料視覺化
- 如何遷移開源 Flink 任務到實時計算Flink版?實戰手冊來幫忙!
- 基於 Apache Flink 的實時計算資料流業務引擎在京東零售的實踐和落地Apache
- Flink 入門
- Flink從入門到放棄(入門篇2)-本地環境搭建&構建第一個Flink應用
- 將Flink計算完畢後的資料Sink到Nebula
- 從Storm到Flink,有贊五年實時計算效率提升實踐ORM
- Spark比拼Flink:下一代大資料計算引擎之爭,誰主沉浮?Spark大資料
- Flink DataStream 程式設計入門AST程式設計
- Flink實戰
- Flink 新一代流計算和容錯——階段總結和展望
- flink實戰--讀寫Hive(Flink on Hive)Hive
- 端到端的實時計算:TiDB + Flink 最佳實踐TiDB
- Flink 實踐教程-入門(6):讀取 PG 資料寫入 ClickHouse
- Flink CDC實戰
- 實時計算Flink效能調優
- 實時計算Flink——產品安全
- Flink實時計算topN熱榜
- Redis 從入門到實戰Redis
- Locust 從入門到實戰
- 實時資料處理:Kafka 和 FlinkKafka
- 第02講:Flink 入門程式 WordCount 和 SQL 實現SQL
- Flink-Kafka-Connector Flink結合Kafka實戰Kafka