基於雲原生的大資料實時分析方案實踐
1 方案介紹
大資料處理技術現今已廣泛應用於各個行業,為業務解決海量儲存和海量分析的需求。但資料量的爆發式增長,對資料處理能力提出了更大的挑戰,同時對時效性也提出了更高的要求。實時分析已成為企業大資料分析中最關鍵的術語,這意味企業可將所有資料用於大資料實時分析,實現在資料接受同時即刻為企業生成分析報告,從而在第一時間作出市場判斷與決策。典型的場景如電商大促和金融風控等,基於延遲資料的分析結果已經失去了價值。另外隨著雲原生時代的到來,雲原生天生具有的高效部署、敏捷迭代、雲端計算資源成本和彈性擴充套件等優勢,正在加速和縮短業務系統落地過程。雲原生同樣可助力大資料這一過程。
本文主要介紹如何利用 Kubernetes 實現雲原生大資料實時分析平臺。
2 總體架構
- Data Streams:基於 Kafka 的資料流接入方案
- Data Computations:基於 Spark Streaming 與 Flink 的流計算方案
- Data Pipeline:基於 TKDF(Tencent Kubernetes Data Flow) 的資料工作流方案
- Data Store:基於 Iceberg 與 HDFS 的資料湖方案
- Data Interactive Analysis:基於 Spark SQL 與 Presto 的 SQL 互動式分析方案
- Data Intelligence:基於 Metabase 的資料視覺化方案以及若干資料接入方式
- Data Infrastructure:基於 TKBS(Tencent Kubernetes Bigdata Suite)的雲原生大資料套件方案,可幫助使用者一鍵在 Kubernetes 上部署生產可用的大資料平臺;基於 TKE / EKS / TKEStack 的 Kubernetes 引擎方案,可為使用者提供生產、管控和使用 Kubernetes 叢集服務
3 資料接入流
在實時分析中,需要持續、快速、實時地接受源源不斷的資料與事件,作為整個分析平臺的資料來源與入口。這個過程最好是基於流的、高吞吐、可擴充套件、可對接主流計算引擎。我們選擇 Apache Kafka 作為事件流處理的解決方案。
Apache Kafka 是一個分散式流處理平臺,被很多公司廣泛使用於資料管道、流分析、資料整合,訊息中介軟體等領域。Kafka 適合場景包括:
- 訊息佇列:構造實時流資料管道,它可以在系統或應用之間可靠地獲取資料
- 流處理:構建實時流式應用程式,對這些流資料進行轉換或者影響
Apache Kafka 可透過容器化部署在 Kubernetes,充分利用 Kubernetes 資源自動部署、自動擴充套件、一次配置任意執行等能力做到雲原生賦能。
4 資料計算
在傳統的資料處理流程中,總是先收集資料,然後將資料放到資料庫中。當人們需要的時候透過資料庫對資料做查詢,得到答案或進行相關的處理。這樣看起來雖然非常合理,但是結果卻非常的緊湊,尤其是在一些實時搜尋應用環境中的某些具體問題,類似於 MapReduce 方式的離線處理並不能很好地解決問題。這就引出了一種新的資料計算結構 - 流計算方式。它可以很好地對大規模流動資料在不斷變化的運動過程中實時地進行分析,捕捉到可能有用的資訊,並把結果傳送到下一計算節點。
在雲原生下,我們將流計算引擎容器化和遷移到 Kubernetes 上,利用 Kubernetes 自動化部署、HPA 等能力實現計算資源動態建立、排程與伸縮。雲原生賦予了流計算即拿即用資源的能力。
當前主流的流計算引擎均可順暢的執行在 Kubernetes 之上。
4.1 Spark on Kubernetes
Spark 在 2.3 之後,支援將叢集建立和託管到 Kubernetes 中,以 native 方式執行。
Kubernetes 可幫助 Spark 任務分配和管理計算資源,提供網路和儲存,管理任務生命週期,動態的橫向擴充套件能力,以及連線 Kubernetes 生態其他服務的能力。
4.2 Flink on Kubernetes
Flink 在 Kubernetes 上支援 standalone 與 native 兩種模式。standalone 相當於利用 Kubernetes Deployment、Service、Configmap 等在 Kubernetes 上建立一個完整 Flink 叢集。native 方式類似 Spark native,是透過內建於 Flink Client 的 K8s Client 與 Kubernetes 叢集互動,負責元件資源的建立和銷燬。Flink 新引入的 Application 模式,更是可以在提交 Job 的同時動態建立 Flink 叢集。
5 資料工作流
資料工作流(Data Pipeline)可以理解為一個貫穿資料產品或資料系統的管道,而資料就是管道載體的運輸物件。資料工作流連線了資料處理分析的各個環節,將整個龐雜的系統變得井然有序,便於管理和擴充套件。
我們根據生產經驗,設計和研發了基於雲原生的資料工作流方案 TKDF,以幫助使用者集中精力從資料中獲取所需要的資訊,而不是把精力花費在管理日常資料和管理資料庫方面。
TKDF 有以下優勢:
- 基於雲原生
- YAML 宣告式定義
- 支援主流資料來源
- 介面式封裝,可外掛化增加新的資料來源實現
- 完整的資料生命週期管理
- 原生支援 Spark Streaming
- 計算模型抽象,支援基數統計近似、漏斗模型、模糊計算、產品運營指標等
6 資料湖
現今大資料儲存和處理需求越來越多樣化,在後 Hadoop 時代,如何構建一個統一的資料湖儲存,並在其上進行多種形式的資料分析,成了企業構建大資料生態的一個重要方向。怎樣快速、一致、原子性地在資料湖儲存上構建起 Data Pipeline,成了亟待解決的問題。並且伴隨雲原生時代到來,雲原生天生具有的自動化部署和交付能力也正催化這一過程。
基於 Hadoop 的雲原生資料湖
傳統方式下,使用者在部署和運維大資料平臺時通常採用手動或半自動化方式,這往往消耗大量人力,穩定性也無法保證。Kubernetes 的出現,革新了這一過程。Kubernetes 提供了應用部署和運維標準化能力,使用者業務在實施 Kubernetes 化改造後,可執行在其他所有標準 Kubernetes 叢集中。在大資料領域,這種能力可幫助使用者快速部署和交付大資料平臺(大資料元件部署尤為複雜)。尤其在大資料計算儲存分離的架構中,Kubernetes 叢集提供的 Serverless 能力,可幫助使用者即拿即用的執行計算任務。並且再配合離線上混部方案,除了可做到資源統一管控降低複雜度和風險外,叢集利用率也會進一步提升,大幅降低成本。
我們使用 TKBS 在 Kubernetes 上構建 Hadoop 資料湖:
基於 Iceberg 的雲原生實時資料湖
Apache Iceberg is an open table format for huge analytic datasets. Iceberg adds tables to Presto and Spark that use a high-performance format that works just like a SQL table.
Apache Iceberg 是由 Netflix 開發開源的,其於2018年11月16日進入 Apache 孵化器,是 Netflix 公司資料倉儲基礎。Iceberg 本質上是一種專為海量分析設計的表格式標準,可為主流計算引擎如 Presto、Spark 等提供高效能的讀寫和後設資料管理能力。Iceberg 不關注底層儲存(如 HDFS)與表結構(業務定義),它為兩者之間提供了一個抽象層,將資料與後設資料組織了起來。
Iceberg 主要特性包括:
- ACID:具備 ACID 能力,支援 row level update/delete;支援 serializable isolation 與 multiple concurrent writers
- Table Evolution:支援 inplace table evolution(schema & partition),可像 SQL 一樣操作 table schema;支援 hidden partitioning,使用者無需顯示指定
- 介面通用化:為上層資料處理引擎提供豐富的表操作介面;遮蔽底層資料儲存格式差異,提供對 Parquet、ORC 和 Avro 格式支援
依賴以上特性,Iceberg 可幫助使用者低成本的實現 T+0 級資料湖。我們使用 Iceberg + HDFS 的方式在 Kubernetes 上構建雲原生資料湖。
我們使用 Kubernetes 負責應用自動化部署與資源管理排程,為上層遮蔽底層環境複雜性。透過 TKBS 一鍵式部署雲原生資料湖。Iceberg + HDFS 實現了基於 Hadoop 生態的實時資料湖,為大資料應用提供資料訪問及儲存能力。Spark、Flink、Presto 等計算引擎以 native 或 standalone 方式執行於 Kubernetes 叢集中,資源可隨提交任務即拿即用。與線上業務混部後,更能大幅提升叢集資源利用率。
- Resource Layer:使用 Kubernetes 提供資源管控能力
- Data Access Layer:使用 Iceberg 提供 ACID、table 等資料集訪問操作能力
- Data Storage Layer:使用 HDFS 提供資料儲存能力
- Data Computation Layer:使用 Spark / Flink / Presto on Kubernetes 提供流批計算能力或實現 SQL 引擎
7 互動式分析
實時分析除了持續實時分析外(Continuous real-time analytics),還包括互動式分析(On-demand real-time analytics)。互動式分析是一種反應式分析方法,使用者透過查詢獲取分析結果(比如輸入 SQL 語句)。我們採用 SQL 語句作為互動式查詢語句,支援 Spark SQL 與 Presto 兩種 SQL 查詢引擎。
7.1 Presto on Kubernetes
Presto 是由 Facebook 開源的分散式 SQL 查詢引擎,專門為互動式查詢所設計,提供分鐘級乃至亞秒級低延時的查詢效能。它既可支援非關係資料來源,例如 HDFS、Amazon S3、Cassandra、MongoDB 和 HBase,又可支援關係資料來源,例如 MySQL、PostgreSQL、Amazon Redshift、Microsoft SQL Server 和 Teradata。
Presto 查詢引擎是 Master-Slave 架構,由一個 Coordinator節點,一個 Discovery Server 節點,多個 Worker 節點組成。
我們透過 standalone 方式將 Presto 叢集部署在 Kubernetes 上:
7.2 Spark SQL on Kubernetes
Spark SQL 是 Spark 結構化資料的執行模組,可支援使用 SQL 在 Spark 查詢分析結構化資料 DataFrames、Datasets。我們同樣支援使用 Spark SQL 作為互動式分析引擎,將執行的 Spark 任務以 native 方式執行在 Kubernetes 上。
8 資料智慧分析
我們正處於大資料和數字化轉型的時代,資料無處不在,運用資料驅動的思想和策略在實踐中逐漸成為共識。資料的價值已在科學研究和工商業的不同領域得到充分展現。資料智慧工具和技術的應用可以幫助決策者更好地理解所收集的資訊,從而開發出更好的業務流程。我們透過提供資料介面與接入外部 BI 來達成這一目的。
8.1 資料介面
我們透過以下方式提供互動式入口或資料介面,以幫助使用者使用或接入第三方系統:
- 圖形化介面:基於 Metabase 的開源 BI 系統
- JDBC 介面:透過 Spark Thrift Server 或 Presto JDBC Driver 的連線
- 命令列介面:透過 Spark SQL CLI 或 Presto CLI 連線
8.2 資料視覺化
Metabase 是一個開源的商業智慧工具,你可以向它提出關於資料的問題(資料查詢),而獲取有意義的格式化結果(圖形化檢視)。我們可透過它理解資料、分析資料,以資料驅動決策。
Metabase 支援諸多資料來源及計算引擎接入:
我們利用官方提供的 Helm 包,可以方便的將 Metabase 部署於 Kubernetes 上。
9 資料基礎設施
9.1 TKBS
TKBS(Tencent Kubernetes Bigdata Suite)是我們根據生產經驗開發的雲原生大資料套件專案,使用者可使用 TKBS 一鍵在 Kubernetes 上部署生產可用的大資料平臺。TKBS 當前已支援 Hadoop 主要元件以及主流大資料元件的部署。
TKBS 主要特點如下:
- 相容社群:支援原生 Kubernetes
- 一鍵部署:採用 Helm 應用化封裝
- 雲原生增強:與騰訊雲 TKE、EKS、CBS、CLB、COS 和 CHDFS 等雲服務深度整合;支援開源 TKEStack
- 存算分離:支援儲存計算分離架構
- 自動擴縮容:支援自動 HPA 和 CA,節省運營成本
- 離線上混部:支援與線上業務混合部署,提升資源利用率
9.2 TKE / EKS / TKEStack
我們使用騰訊雲 TKE / EKS 或開源 TKEStack 幫助我們生產和管理 Kubernetes 叢集。
- TKE:騰訊雲容器服務(Tencent Kubernetes Engine ,TKE)基於原生 kubernetes 提供以容器為核心的、高度可擴充套件的高效能容器管理服務
- EKS:騰訊雲彈性容器服務(Elastic Kubernetes Service,EKS)是騰訊雲容器服務推出的無須使用者購買節點即可部署工作負載的服務模式
- TKEStack:騰訊雲 TKE 團隊開源的一款集強壯性和易用性於一身的企業級容器編排引擎,以極簡的嚮導式介面提供了容器應用的全生命週期管理能力,幫助使用者在私有云環境中敏捷、高效地構建和釋出應用程式
10 結尾
雲原生的到來不止為大資料部署和交付帶來了變革,它更是幫助大資料連線了一個生態。利用雲原生生態,真正做到了為大資料賦予雲的能力,使得大資料可以“生長在雲端”。另外,雲原生在大資料領域的應用,也同樣幫助雲原生擴充了能力邊界,豐富了落地場景,為未來“Everything native on Cloud”打下夯實基礎。
TKBS 已上線騰訊雲 TKE 應用市場,下個版本會加入對實時分析完整方案與 TKDF 的支援。我們希望憑藉基於 TKBS 與 TKDF 的大資料實時分析方案,可以幫助使用者縮短大資料交付過程,簡化大資料系統部署與運維複雜度,讓使用者聚焦在挖掘資料價值本身。另一方面,藉助雲原生架構,我們希望能幫助使用者的大資料業務與雲發生聯絡,為使用者帶來更多的可能性,幫助使用者創造更多的價值。
生於雲上,為雲而生!
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/2001/viewspace-2826649/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 基於 Spark 的資料分析實踐Spark
- 【大資料雲原生系列】大資料系統雲原生漸進式演進最佳實踐大資料
- 轉:基於Spark的公安大資料實時運維技術實踐Spark大資料運維
- 基於Redis、Storm的實時資料查詢實踐RedisORM
- 火山引擎雲原生大資料在金融行業的實踐大資料行業
- 阿里雲實時大資料解決方案,助力企業實時分析與決策阿里大資料
- 京東零售大資料雲原生平臺化實踐大資料
- 藏書館App基於Rainbond實現雲原生DevOps的實踐APPAIdev
- 技術集錦 | 大資料雲原生技術實戰及最佳實踐系列大資料
- 錢大媽基於 Flink 的實時風控實踐
- 基於雲原生閘道器的可觀測性最佳實踐
- 騰訊雲EMR大資料實時OLAP分析案例解析大資料
- 網易雲音樂基於Flink實時數倉實踐
- 雲原生最佳實踐系列 7:基於 OSS Object FC 實現非結構化檔案實時處理Object
- 基於Spark的大資料實時處理開課Spark大資料
- 青雲雲原生沙龍線上集結,找到屬於你的雲原生實踐之路!
- 基於 DataLakeAnalytics 的資料湖實踐
- 基於DataLakeAnalytics的資料湖實踐
- 申通的雲原生實踐之路:如何實現應用基於容器的微服務改造?微服務
- 華為雲GaussDB NoSQL雲原生多模資料庫的超融合實踐SQL資料庫
- 雲原生灰度更新實踐
- 七牛大資料平臺的實時資料分析實戰大資料
- B站基於K8S的雲原生混部技術實踐K8S
- 銀行基於雲原生架構的 DevOps 建設實踐經驗架構dev
- 百度基於雲原生的推薦系統設計與實踐
- 基於python的大資料分析-資料處理(程式碼實戰)Python大資料
- 基於 Flink 的小米資料整合實踐
- 基於 RxJs 的前端資料層實踐JS前端
- 快速雲原生化,從資料中心到雲原生的遷移最佳實踐
- 雲原生無伺服器以及實時數倉降低資料分析門檻伺服器
- 國際計費系統基於Sharding-Proxy大資料遷移方案實踐大資料
- 基於python的大資料分析實戰學習筆記-pandas(資料分析包)Python大資料筆記
- 阿里雲 MSE 基於 Apache APISIX 的全鏈路灰度方案實踐阿里ApacheAPI
- 數棧技術大牛分享:雲原生大資料系統架構的實踐和思考大資料架構
- 基於Pandas+ECharts的金融大資料視覺化實現方案Echarts大資料視覺化
- 基於python的大資料分析-pandas資料讀取(程式碼實戰)Python大資料
- 基於python的大資料分析-pandas資料儲存(程式碼實戰)Python大資料
- .NET雲原生應用實踐(四):基於Keycloak的認證與授權