Flink SQL 如何實現資料流的 Join?
無論在 OLAP 還是 OLTP 領域,Join 都是業務常會涉及到且最佳化規則比較複雜的 SQL 語句。對於離線計算而言,經過資料庫領域多年的積累,Join 語義以及實現已經十分成熟,然而對於近年來剛興起的 Streaming SQL 來說 Join 卻處於剛起步的狀態。
其中最為關鍵的問題在於 Join 的實現依賴於快取整個資料集,而 Streaming SQL Join 的物件卻是無限的資料流,記憶體壓力和計算效率在長期執行來說都是不可避免的問題。下文將結合 SQL 的發展解析 Flink SQL 是如何解決這些問題並實現兩個資料流的 Join。
離線 Batch SQL Join 的實現
傳統的離線 Batch SQL (面向有界資料集的 SQL)有三種基礎的實現方式,分別是 Nested-loop Join、Sort-Merge Join 和 Hash Join。
- Nested-loop Join 最為簡單直接,將兩個資料集載入到記憶體,並用內嵌遍歷的方式來逐個比較兩個資料集內的元素是否符合 Join 條件。Nested-loop Join 雖然時間效率以及空間效率都是最低的,但勝在比較靈活適用範圍廣,因此其變體 BNL 常被傳統資料庫用作為 Join 的預設基礎選項。
- Sort-Merge Join 顧名思義,分為兩個 Sort 和 Merge 階段。首先將兩個資料集進行分別排序,然後對兩個有序資料集分別進行遍歷和匹配,類似於歸併排序的合併。值得注意的是,Sort-Merge 只適用於 Equi-Join(Join 條件均使用等於作為比較運算元)。Sort-Merge Join 要求對兩個資料集進行排序,成本很高,通常作為輸入本就是有序資料集的情況下的最佳化方案。
- Hash Join 同樣分為兩個階段,首先將一個資料集轉換為 Hash Table,然後遍歷另外一個資料集元素並與 Hash Table 內的元素進行匹配。第一階段和第一個資料集分別稱為 build 階段和 build table,第二個階段和第二個資料集分別稱為 probe 階段和 probe table。Hash Join 效率較高但對空間要求較大,通常是作為 Join 其中一個表為適合放入記憶體的小表的情況下的最佳化方案。和 Sort-Merge Join 類似,Hash Join 也只適用於 Equi-Join。
實時 Streaming SQL Join
相對於離線的 Join,實時 Streaming SQL(面向無界資料集的 SQL)無法快取所有資料,因此 Sort-Merge Join 要求的對資料集進行排序基本是無法做到的,而 Nested-loop Join 和 Hash Join 經過一定的改良則可以滿足實時 SQL 的要求。
我們透過例子來看基本的 Nested Join 在實時 Streaming SQL 的基礎實現(案例及圖來自 Piotr Nowojski 在 Flink Forward San Francisco 的分享[2])。
圖1. Join-in-continuous-query-1
Table A 有 1、42 兩個元素,Table B 有 42 一個元素,所以此時的 Join 結果會輸出 42。
圖2. Join-in-continuous-query-2
接著 Table B 依次接受到三個新的元素,分別是 7、3、1。因為 1 匹配到 Table A 的元素,因此結果表再輸出一個元素 1。
圖3. Join-in-continuous-query-3
隨後 Table A 出現新的輸入 2、3、6,3 匹配到 Table B 的元素,因此再輸出 3 到結果表。
可以看到在 Nested-Loop Join 中我們需要儲存兩個輸入表的內容,而隨著時間的增長 Table A 和 Table B 需要儲存的歷史資料無止境地增長,導致很不合理的記憶體磁碟資源佔用,而且單個元素的匹配效率也會越來越低。類似的問題也存在於 Hash Join 中。
那麼有沒有可能設定一個快取剔除策略,將不必要的歷史資料及時清理呢?答案是肯定的,關鍵在於快取剔除策略如何實現,這也是 Flink SQL 提供的三種 Join 的主要區別。
Flink SQL 的 Join
- Regular Join
Regular Join 是最為基礎的沒有快取剔除策略的 Join。Regular Join 中兩個表的輸入和更新都會對全域性可見,影響之後所有的 Join 結果。舉例,在一個如下的 Join 查詢裡,Orders 表的新紀錄會和 Product 表所有歷史紀錄以及未來的紀錄進行匹配。
SELECT * FROM Orders
INNER JOIN Product
ON Orders.productId = Product.id
因為歷史資料不會被清理,所以 Regular Join 允許對輸入表進行任意種類的更新操作(insert、update、delete)。然而因為資源問題 Regular Join 通常是不可持續的,一般只用做有界資料流的 Join。
- Time-Windowed Join
Time-Windowed Join 利用視窗給兩個輸入表設定一個 Join 的時間界限,超出時間範圍的資料則對 JOIN 不可見並可以被清理掉。值得注意的是,這裡涉及到的一個問題是時間的語義,時間可以指計算發生的系統時間(即 Processing Time),也可以指從資料本身的時間欄位提取的 Event Time。如果是 Processing Time,Flink 根據系統時間自動劃分 Join 的時間視窗並定時清理資料;如果是 Event Time,Flink 分配 Event Time 視窗並依據 Watermark 來清理資料。
以更常用的 Event Time Windowed Join 為例,一個將 Orders 訂單表和 Shipments 運輸單表依據訂單時間和運輸時間 Join 的查詢如下:
SELECT *
FROM
Orders o,
Shipments s
WHERE
o.id = s.orderId AND
s.shiptime BETWEEN o.ordertime AND o.ordertime + INTERVAL '4' HOUR
這個查詢會為 Orders 表設定了 o.ordertime > s.shiptime- INTERVAL ‘4’ HOUR 的時間下界(圖4)。
圖4. Time-Windowed Join 的時間下界 - Orders 表
併為 Shipmenets 表設定了 s.shiptime >= o.ordertime 的時間下界(圖5)。
圖5. Time-Windowed Join 的時間下界 - Shipment 表
因此兩個輸入表都只需要快取在時間下界以上的資料,將空間佔用維持在合理的範圍。
不過雖然底層實現上沒有問題,但如何透過 SQL 語法定義時間仍是難點。儘管在實時計算領域 Event Time、Processing Time、Watermark 這些概念已經成為業界共識,但在 SQL 領域對時間資料型別的支援仍比較弱[4]。因此,定義 Watermark 和時間語義都需要透過程式設計 API 的方式完成,比如從 DataStream 轉換至 Table ,不能單純靠 SQL 完成。這方面的支援 Flink 社群計劃透過擴充 SQL 方言來完成,感興趣的讀者可以透過 FLIP-66[7] 來追蹤進度。
- Temporal Table Join
雖然 Timed-Windowed Join 解決了資源問題,但也限制了使用場景: Join 兩個輸入流都必須有時間下界,超過之後則不可訪問。這對於很多 Join 維表的業務來說是不適用的,因為很多情況下維表並沒有時間界限。針對這個問題,Flink 提供了 Temporal Table Join 來滿足使用者需求。
Temporal Table Join 類似於 Hash Join,將輸入分為 Build Table 和 Probe Table。前者一般是緯度表的 changelog,後者一般是業務資料流,典型情況下後者的資料量應該遠大於前者。在 Temporal Table Join 中,Build Table 是一個基於 append-only 資料流的帶時間版本的檢視,所以又稱為 Temporal Table。Temporal Table 要求定義一個主鍵和用於版本化的欄位(通常就是 Event Time 時間欄位),以反映記錄在不同時間的內容。
比如典型的一個例子是對商業訂單金額進行匯率轉換。假設有一個 Orders 流記錄訂單金額,需要和 RatesHistory 匯率流進行 Join。RatesHistory 代表不同貨幣轉為日元的匯率,每當匯率有變化時就會有一條更新記錄。兩個表在某一時間節點內容如下:
圖6. Temporal Table Join Example]
我們將 RatesHistory 註冊為一個名為 Rates 的 Temporal Table,設定主鍵為 currency,版本欄位為 time。
圖7. Temporal Table Registration]
此後給 Rates 指定時間版本,Rates 則會基於 RatesHistory 來計算符合時間版本的匯率轉換內容。
圖8. Temporal Table Content]
在 Rates 的幫助下,我們可以將業務邏輯用以下的查詢來表達:
SELECT
o.amount * r.rate
FROM
Orders o,
LATERAL Table(Rates(o.time)) r
WHERE
o.currency = r.currency
值得注意的是,不同於在 Regular Join 和 Time-Windowed Join 中兩個表是平等的,任意一個表的新記錄都可以與另一表的歷史記錄進行匹配,在 Temporal Table Join 中,Temoparal Table 的更新對另一表在該時間節點以前的記錄是不可見的。這意味著我們只需要儲存 Build Side 的記錄直到 Watermark 超過記錄的版本欄位。因為 Probe Side 的輸入理論上不會再有早於 Watermark 的記錄,這些版本的資料可以安全地被清理掉。
總結
實時領域 Streaming SQL 中的 Join 與離線 Batch SQL 中的 Join 最大不同點在於無法快取完整資料集,而是要給快取設定基於時間的清理條件以限制 Join 涉及的資料範圍。根據清理策略的不同,Flink SQL 分別提供了 Regular Join、Time-Windowed Join 和 Temporal Table Join 來應對不同業務場景。
另外,儘管在實時計算領域 Join 可以靈活地用底層程式設計 API 來實現,但在 Streaming SQL 中 Join 的發展仍處於比較初級的階段,其中關鍵點在於如何將時間屬性合適地融入 SQL 中,這點 ISO SQL 委員會制定的 SQL 標準並沒有給出完整的答案。或者從另外一個角度來講,作為 Streaming SQL 最早的開拓者之一,Flink 社群很適合探索出一套合理的 SQL 語法反過來貢獻給 ISO。
本文為阿里雲原創內容,未經允許不得轉載。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69949601/viewspace-2670241/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 分散式資料庫下子查詢和 Join 等複雜 SQL 如何實現?分散式資料庫SQL
- 資料庫實現原理#4(Hash Join)資料庫
- 資料庫實現原理#1(Nested Loop Join)資料庫OOP
- 資料庫實現原理#3(Merge Join).md資料庫
- 如何打破資料孤島,實現資料流動與共享?
- Flink 1.16:Hive SQL 如何平遷到 Flink SQLHiveSQL
- 使用Flink完成流資料統計
- 伍翀 :大資料實時計算Flink SQL解密大資料SQL解密
- Flink的join操作樣例
- 深度介紹Flink在位元組跳動資料流的實踐
- 基於 Flink 流計算實現的股票交易實時資產應用
- Flink流計算中SQL表的概念和原理SQL
- Flink 如何分流資料
- 基於 Flink CDC 的現代資料棧實踐
- Flink sql實現原理及Apache Calcite介紹SQLApache
- 最佳實踐|如何寫出簡單高效的 Flink SQL?SQL
- Spark SQL如何選擇join策略SparkSQL
- [資料庫][SQL]圖解各種連線join資料庫SQL圖解
- 高效資料移動指南 | 如何快速實現資料庫 SQL Server 到 Dameng 的資料同步?資料庫SQLServer
- 大資料開發-Flink-資料流DataStream和DataSet大資料AST
- 資料自動同步方案實施指南:企業如何實現高效資料流轉?
- 如何實現對 Oracle 的實時資料捕獲和效能調優|Flink CDC 專題Oracle
- sql的left join 、right join 、inner join之間的區別SQL
- 【Flink】基於 Flink 的流式資料實時去重
- Spark雙流join-延遲資料--double_happySparkAPP
- Hive SQL on Flink 構建流批一體引擎HiveSQL
- 【SQL】13 SQL 別名、SQL 連線(JOIN)、SQL INNER JOIN 關鍵字、SQL LEFT JOIN 關鍵字、SQL RIGHT JOIN 關鍵字、SQL FULL OUTER JSQL
- 如何使用Spring Projections和Join實現DTO?SpringProject
- Flink Sql Gateway的原理與實踐SQLGateway
- sql:left join和join區別SQL
- 如果通過流資料實現實時分析?
- SQL語句中不同的連線JOIN及SQL中join的各種用法SQL
- 大資料SQL中的Join謂詞下推,真的那麼難懂?大資料SQL
- 讀Flink原始碼談設計:流批一體的實現與現狀原始碼
- Flink CDC 系列 - 實現 MySQL 資料實時寫入 Apache DorisMySqlApache
- 第02講:Flink 入門程式 WordCount 和 SQL 實現SQL
- sql語句中JOIN ON 的使用SQL
- 一條SQL完成跨資料庫例項Join查詢SQL資料庫