開源大資料生態下的 Flink 應用實踐

芊寶寶最可愛發表於2019-11-21

過去十年,面向整個數字時代的關鍵技術接踵而至,從被人們接受,到開始步入應用。大資料與計算作為時代的關鍵詞已被廣泛認知,算力的重要性日漸凸顯並發展成為企業新的增長點。Apache Flink(以下簡稱 Flink)以其快速、準確的算力備受關注,如何將 Flink 更好的與大資料生態技術相結合,充分挖掘資料的潛力,真正發揮資料的價值,是大多數企業面臨的難題。

11 月 28-30 日,Flink Forward Asia 邀請來自阿里巴巴、戴爾科技集團、英特爾、Cloudera、趣頭條、百度、Stream Native 等不同方向的技術專家圍繞 Apache Flink 核心大資料生態探討當下大資料的發展趨勢與未來動向,並展現相關技術在一線生產場景的優秀實踐。

點選可瞭解 大會詳情,購買參會門票

部分精彩議題概覽

Apache Flink and the Apache Way

Fabian Hueske
Apache Flink PMC,Ververica Co-founder, 
Software Engineer

Apache Flink is a project of the Apache Software Foundation (ASF). The ASF is the world's largest open source foundation and the home of more than 350 individual projects and initiatives.

Every ASF project is independently governed and managed by its own community but follows the principles of the ASF, the so-called Apache Way. Knowing the Apache Way is important to fully understand how the community of an ASF project works.

In this talk, I'll briefly explain the Apache Way and how ASF projects organize themselves. I'll take a look back at how the Apache Flink community started and its journey to where it is today.

Finally, I'll give you some guidance and advice that will help you to start contributing to Apache Flink and maybe become a committer at some point in the future.

Optimize Apache Flink on Kubernetes with YuniKorn Scheduler

楊巍威,Cloudera資深軟體工程師
楊弢,阿里巴巴技術專家

將 Flink 執行在 K8s 很簡單,但是當我們嘗試在 K8s 叢集上執行大規模 Flink 的任務,並對多租戶環境和 SLA 有嚴苛要求時,各種問題開始顯現出來。尤其是在排程層面,我們發現 Flink 的作業排程變慢,並且資源的分配變得混亂且毫無公平性,這樣往往會導致作業餓死,或者資源浪費。於是我們開始尋求利用 YuniKorn 來解決在 K8s 上的排程問題。

YuniKorn 是一個開源的,輕量級,通用的資源排程器,可以很容易的適配到 K8s。相比原生的 K8s 排程器,YuniKorn 提供了更加豐富的排程特性,比如層級佇列、資源公平性保證、強佔以及更好的效能,更加適合大規模多租戶、長執行以及批處理作業並存的場景下使用。YuniKorn 的排程會考量應用,使用者以及佇列等各個維度的資源使用情況,提供基於公平性原則的彈性容量配置。在這個議題中,我們將主要從如何透過 YuniKorn 來最佳化 Flink 在 K8s 上的執行,包括效能、多租戶、資源公平性等方面的與大家進行探討。

趣頭條基於 Flink+ClickHouse 構建實時資料分析平臺

王金海,趣頭條資料平臺負責人

趣頭條一直致力於使用大資料分析指導業務發展。目前在實時化領域主要使用 Flink+ClickHouse 解決方案,覆蓋場景包括實時資料包表、Adhoc 即時查詢、事件分析、漏斗分析、留存分析等精細化運營策略,整體響應 80% 在 1 秒內完成,大大提升了使用者實時取數體驗,推動業務更快迭代發展。本次分享主要內容:

  1. 業務場景與現狀分析
  2. Flink to Hive 的小時級場景
  3. Flink to ClickHouse 的秒級場景
  4. 未來規劃

基於 Apache Flink 的邊緣流式計算

袁尤軍,百度雲資深研發工程師
黃家天,百度雲物聯網部實時計算高階研發工程師

隨著 5G 和 IoT 技術的發展,計算將從現在的雲端蔓延到更多其他的地方,其中一個典型的場景就是邊緣計算。與雲端強大的計算叢集相比,這些場景裝置的計算能力非常受限。Apache Flink 作為新一代流式計算引擎,已經廣泛應用在諸多頂級網際網路公司的雲上。但如何在資源極度受限的邊緣裝置上執行流式計算引擎,尚無成功案例可循。

我們相信 Apache Flink 不應該僅僅執行在雲端,而應該執行在任何需要裝置上。本次演講,我們將分享百度智慧雲在邊緣裝置上執行流式作業的一些探索,介紹如何將作業的記憶體消耗降低到 10M 以內,以及如何實現作業對執行環境的零依賴。會上將重點介紹百度基於 Flink 自研的邊緣流式計算框架 Creek,重點內容包括:

  1. 介紹流式計算在邊緣裝置的意義和挑戰
  2. 介紹 Creek 的技術方案
  3. 展示 Creek 的效能指標
  4. 現場演示 Creek 作業的構建和執行

Apache Flink 與 Apache Hive 的整合

李銳,Apache Hive PMC,Apache Flink Contributor,阿里巴巴技術專家 
王剛,阿里巴巴高階開發工程師

在大資料領域,Hive 已經成為資料倉儲事實上的標準。為了豐富 Flink 的生態,從 1.9.0 版本開始,我們提供了 Flink 與 Hive 整合的能力,讓使用者可以透過 Flink 來讀寫 Hive 中的表。在 1.9.0 釋出之後,我們進一步完善了 Flink-Hive 整合的功能,包括支援更全面的資料型別、更好地支援 DDL 以及 Function 等。

在新版本中,我們可以支援更多的應用場景,並提供更好的易用性。本次演講將介紹 Flink-Hive 整合的設計架構、專案進展以及後續版本中的新功能。最後,我們還將演示如何使用 Flink 與 Hive 進行互動。

開源大資料生態專場完整議程

除上述議題外,開源大資料生態專場還有來自戴爾科技集團、英特爾、Stream Native 等重量級嘉賓以及 Apache Member、Apache Flink PMC、Apache Calcite Committer 等帶來的更加精彩的分享。完整議程如下:


開源大資料生態下的 Flink 應用實踐


(11 月 28 日下午,專場議程)

深度培訓,實現技術與應用能力的積累提升

11 月 11-14 日,Flink Forward Asia 培訓課程門票買一贈一,限時 3 天!點選閱讀原文預約培訓課程,然後加微信(ID:candy1764)提供共同參加培訓的小夥伴名單,活動時間截止 11 月 14 日中午 12:00,數量有限,贈完即止,對培訓心動的同學趕緊下手啦!

Apache Flink PMC 帶隊,超豪華陣容,阿里巴巴及 Flink 創始團隊資深技術專家擔任培訓講師,為開發者培訓課程制定全面學習體系。

課程能夠滿足不同學習需求,無論是入門還是進階,開發者可根據自身基礎選擇課程內容,實現技術與應用能力上的積累與提升。

課程主要大綱如下:

  • 中階一:Apache Flink 開發人員培訓

Tips:本課程為純英文授課,同時配有2位中文技術專家支援解答問題。

本課程是對想要學習構建流應用程式的 Java 和 Scala 開發人員進行的關於 Apache Flink 的實踐介紹。培訓將重點介紹分散式資料流、事件時間和狀態等核心概念。練習將使您有機會了解以上概念在 API 中是如何被體現的,並瞭解如何將這些概念組合用以解決實際問題。

  • 介紹流計算和 Apache Flink
  • DataStream API 的基礎
  • 為 Flink 開發做準備(包括練習)
  • 有狀態的流處理(包括練習)
  • 時間、定時器和 ProcessFunction(包括練習)
  • 連線多個流(包括練習)
  • 測試(包括練習)

說明:不需要 Apache Flink 的相關知識。

  • 中階二:Apache Flink 運維培訓

本課程是針對 Apache Flink 應用程式的部署和操作相關的實踐性介紹。目標受眾包括負責部署 Flink 應用程式和維護 Flink 叢集的開發人員和運維人員。演示將重點介紹 Flink 執行中涉及的核心概念,以及用於部署、升級和監控 Flink 應用程式的主要工具。

  • 介紹流計算和 Apache Flink
  • 資料中心裡的 Flink
  • 分散式架構介紹
  • 容器化部署(包括實際操作)
  • 狀態後端和容錯(包括實際操作)
  • 升級和狀態遷移(包括實際操作)
  • 指標(包括實踐)
  • 容量規劃

說明:不需要對 Apache Flink 有先驗知識。

  • 中階三:SQL 開發人員培訓

Apache Flink 支援 SQL 作為流處理和批處理的統一 API。SQL 可以用於各種各樣的場景,並且相比使用 Flink 的底層 API,SQL 將更容易構建和維護。在本次培訓中,您將學習到如何充分發揮使用 SQL 來編寫 Apache Flink 作業的潛力。我們將研究流式 SQL 的不同案例,包括連線流資料、維表關聯、視窗聚合、維護物化檢視,以及使用 MATCH RECOGNIZE 子句進行模式匹配(這是 SQL 2016 新提出的標準)。

  • 介紹 SQL on Flink
  • 使用 SQL 查詢動態表
  • 連線動態表
  • 模式匹配與 match_recognition
  • 生態系統&寫外部表

說明:不需要 Apache Flink 的先驗知識,但是需要基本的 SQL 知識。

  • 高階:Apache Flink 調優和問題排查

在過去的幾年中,我們與許多 Flink 使用者合作溝通期間瞭解到許多將流計算作業從早期 PoC 階段慢慢過渡到生產過程中最常見的挑戰。在此次培訓中,我們將集中精力介紹這些挑戰,並且幫助大家一起消除它。我們將提供一個有用的故障診斷工具集,並介紹例如監控、水印、序列化、狀態後端等領域的最佳實踐和技巧。在實踐課程的間隙中,參與者將有機會使用新學習到的知識來解決一些異常 Flink 作業表現出來的問題。同時,我們也將歸納那些使作業沒有進展或吞吐量沒有達到預期,或作業延遲的常見原因。

  • 時間和水印
  • 狀態處理和狀態後端
  • Flink 的容錯機制
  • 檢查點和儲存點
  • DataStream API 和 ProcessFunction。

培訓系列課程為精品小班教學,數量有限,預約滿額將關閉入口,有相關培訓需求的同學可儘早預約。詳細說明:

  • 參加培訓請選擇購買 VIP 套票。中階培訓購買 VIP 套票 1,高階培訓購買 VIP 套票 2。
  • VIP 套票 1 可參與中階所有課程,VIP 套票 2 可參與包括高階、中階培訓在內的所有課程。

如果你也好奇 Flink 未來的主要探索方向,如何利用 Flink 將大資料、算力推到極致,Flink 有哪些新場景、新規劃以及最佳實踐等話題,來現場吧!相信這群來自一線的技術專家們,一定會重新整理你對 Apache Flink 的認知。

原文連結

本文為雲棲社群原創內容,未經允許不得轉載。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69949601/viewspace-2665192/,如需轉載,請註明出處,否則將追究法律責任。

相關文章