【大資料】SparkSql連線查詢中的謂詞下推處理(一)
本文首發於 vivo網際網路技術 微信公眾號 https://mp.weixin.qq.com/s/YPN85WBNcnhk8xKjTPTa2g
作者:李勇
目錄:
1.SparkSql
2.連線查詢和連線條件
3.謂詞下推
4.內連線查詢中的謂詞下推規則
4.1.Join後條件透過AND連線
4.2.Join後條件透過OR連線
4.3.分割槽表使用OR連線過濾條件
1.SparkSql
SparkSql 是架構在 Spark 計算框架之上的分散式 Sql 引擎,使用 DataFrame 和 DataSet 承載結構化和半結構化資料來實現資料複雜查詢處理,提供的 DSL可以直接使用 scala 語言完成 Sql 查詢,同時也使用 thriftserver 提供服務化的 Sql 查詢功能。
SparkSql 提供了 DataSource API ,使用者透過這套 API 可以自己開發一套 Connector,直接查詢各類資料來源,資料來源包括 NoSql、RDBMS、搜尋引擎以及 HDFS 等分散式檔案系統上的檔案等。和 SparkSql 類似的系統有 Hive、PrestoDB 以及 Impala,這類系統都屬於所謂的" Sql on Hadoop "系統,每個都相當火爆,畢竟在這個不搞 SQL 就是耍流氓的年代,沒 SQL 確實很難找到使用者使用。
2.連線查詢和連線條件
Sql中的連線查詢(join),主要分為內連線查詢(inner join)、外連線查詢(outter join)和半連線查詢(semi join),具體的區別可以參考wiki的解釋。
連線條件(join condition),則是指當這個條件滿足時兩表的兩行資料才能"join"在一起被返回,例如有如下查詢:
其中的"LT.id=RT.idAND >1"這部分條件被稱為"join中條件",直接用來判斷被join的兩表的兩行記錄能否被join在一起,如果不滿足這個條件,兩表的這兩行記錄並非全部被踢出局,而是根據連線查詢型別的不同有不同的處理,所以這並非一個單表的過濾過程或者兩個表的的“聯合過濾”過程;而where後的" >2"這部分被稱為"join後條件",這裡雖然成為"join後條件",但是並非一定要在join後才能去過濾資料,只是說明如果在join後進行過濾,肯定可以得到一個正確的結果,這也是我們後邊分析問題時得到正確結果的基準方法。
3.謂詞下推
所謂謂詞(predicate),英文定義是這樣的:A predicate is a function that returns bool (or something that can be implicitly converted to bool),也就是返回值是true或者false的函式,使用過scala或者spark的同學都知道有個filter方法,這個高階函式傳入的引數就是一個返回true或者false的函式。
但是如果是在sql語言中,沒有方法,只有表示式。where後邊的表示式起的作用正是過濾的作用,而這部分語句被sql層解析處理後,在資料庫內部正是以謂詞的形式呈現的。
那麼問題來了,謂詞為什麼要下推呢? SparkSql中的謂詞下推有兩層含義,第一層含義是指由誰來完成資料過濾,第二層含義是指何時完成資料過濾。要解答這兩個問題我們需要了解SparkSql的Sql語句處理邏輯,大致可以把SparkSql中的查詢處理流程做如下的劃分:
SparkSql首先會對輸入的Sql語句進行一系列的分析(Analyse),包括詞法解析(可以理解為搜尋引擎中的分詞這個過程)、語法分析以及語義分析(例如判斷database或者table是否存在、group by必須和聚合函式結合等規則);之後是執行計劃的生成,包括邏輯計劃和物理計劃。其中在邏輯計劃階段會有很多的最佳化,對謂詞的處理就在這個階段完成;而物理計劃則是RDD的DAG圖的生成過程;這兩步完成之後則是具體的執行了(也就是各種重量級的計算邏輯,例如join、groupby、filter以及distinct等),這就會有各種物理運算子(RDD的Transformation)的亂入。
能夠完成資料過濾的主體有兩個,第一是分散式Sql層(在execute階段),第二個是資料來源。那麼謂詞下推的第一層含義就是指由Sql層的Filter運算子來完成過濾,還是由Scan運算子在掃描階段完成過濾。
上邊提到,我們可以透過封裝SparkSql的Data Source API完成各類資料來源的查詢,那麼如果底層資料來源無法高效完成資料的過濾,就會執行全域性掃描,把每條相關的資料都交給SparkSql的Filter運算子完成過濾,雖然SparkSql使用的Code Generation技術極大的提高了資料過濾的效率,但是這個過程無法避免大量資料的磁碟讀取,甚至在某些情況下會涉及網路IO(例如資料非本地化儲存時);如果底層資料來源在進行掃描時能非常快速的完成資料的過濾,那麼就會把過濾交給底層資料來源來完成(至於哪些資料來源能高效完成資料的過濾以及SparkSql又是如何完成高效資料過濾的則不是本文討論的重點,會在其他系列的文章中介紹)。
那麼謂詞下推第二層含義,即何時完成資料過濾則一般是在指連線查詢中,是先對單表資料進行過濾再和其他表連線還是在先把多表進行連線再對連線後的臨時表進行過濾,則是本系列文章要分析和討論的重點。
4.內連線查詢中的謂詞下推規則
假設我們有兩張表,表結構很簡單,資料也都只有兩條,但是足以講清楚我們的下推規則,兩表如下,一個lefttable,一個righttable:
4.1.Join後條件透過AND連線
先來看一條查詢語句:
這個查詢是一個內連線查詢,join後條件是用and連線的兩個表的過濾條件,假設我們不下推,而是先做內連線判斷,這時是可以得到正確結果的,步驟如下:
-
左表id為1的行在右表中可以找到,即這兩行資料可以"join"在一起
-
左表id為2的行在右表中可以找到,這兩行也可以"join"在一起
至此,join的臨時結果表(之所以是臨時表,因為還沒有進行過濾)如下:
然後使用where條件進行過濾,顯然臨時表中的第一行不滿足條件,被過濾掉,最後結果如下:
來看看先進行謂詞下推的情況。先對兩表進行過濾,過濾的結果分別如下:
然後再對這兩個過濾後的表進行內連線處理,結果如下:
可見,這和先進行join再過濾得到的結果一致。
4.2.Join後條件透過OR連線
再來看一條查詢語句:
我們先進行join處理,臨時表的結果如下:
然後使用where條件進行過濾,最終查詢結果如下:
如果我們先使用where條件後每個表各自的過濾條件進行過濾,那麼兩表的過濾結果如下:
然後對這兩個臨時表進行內連線處理,結果如下:
表格有問題吧,只有欄位名,沒有欄位值,怎麼回事?是的,你沒看錯,確實沒有值,因為左表過濾結果只有id為1的行,右表過濾結果只有id為2的行,這兩行是不能內連線上的,所以沒有結果。
那麼為什麼where條件中兩表的條件被or連線就會出現錯誤的查詢結果呢?分析原因主要是因為,對於or兩側的過濾條件,任何一個滿足條件即可以返回TRUE,那麼對於"LT.value = 'two' OR RT.value = 'two' "這個查詢條件,如果使用LT.value='two'把只有LT.value為'two'的左表記錄過濾出來,那麼對於左表中LT.value不為two的行,他們可能在跟右表使用id欄位連線上之後,右表的RT.value恰好為two,也滿足"LT.value = 'two' OR RT.value = 'two' ",但是可惜呀可惜,這行記錄因為之前的粗暴處理,已經被過濾掉,結果就是得到了錯誤的查詢結果。所以這種情況下謂詞是不能下推的。
但是OR連線兩表join後條件也有兩個例外,這裡順便分析第一個例外。第一個例外是過濾條件欄位恰好為Join欄位,比如如下的查詢:
在這個查詢中,join後條件依然是使用OR連線兩表的過濾條件,不同的是,join中條件不再是id相等,而是value欄位相等,也就是說過濾條件欄位恰好就是join條件欄位。大家可以自行採用上邊的分步法分析謂詞下推和不下推時的查詢結果,得到的結果是相同的。
我們來看看上邊不能下推時出現的情況在這種查詢裡會不會出現。對於左表,如果使用LT.value='two'過濾掉不符合條件的其他行,那麼因為join條件欄位也是value欄位,說明在左表中LT.value不等於two的行,在右表中也不能等於two,否則就不滿足"LT.value=RT.value"了。這裡其實有一個條件傳遞的過程,透過join中條件,已經在邏輯上提前把兩表整合成了一張表。
至於第二個例外,則涉及了SparkSql中的一個最佳化,所以需要單獨介紹。
4.3.分割槽表使用OR連線過濾條件
如果兩個表都是分割槽表,會出現什麼情況呢?我們先來看如下的查詢:
此時左表和右表都不再是普通的表,而是分割槽表,分割槽欄位是pt,按照日期進行資料分割槽。同時兩表查詢條件依然使用OR進行連線。試想,如果不能提前對兩表進行過濾,那麼會有非常巨量的資料要首先進行連線處理,這個代價是非常大的。但是如果按照我們在2中的分析,使用OR連線兩表的過濾條件,又不能隨意的進行謂詞下推,那要如何處理呢?SparkSql在這裡使用了一種叫做“分割槽裁剪”的最佳化手段,即把分割槽並不看做普通的過濾條件,而是使用了“一刀切”的方法,把不符合查詢分割槽條件的目錄直接排除在待掃描的目錄之外。
我們知道分割槽表在HDFS上是按照目錄來儲存一個分割槽的資料的,那麼在進行分割槽裁剪時,直接把要掃描的HDFS目錄通知Spark的Scan運算子,這樣,Spark在進行掃描時,就可以直接咔嚓掉其他的分割槽資料了。但是,要完成這種最佳化,需要SparkSql的語義分析邏輯能夠正確的分析出Sql語句所要表達的精確目的,所以分割槽欄位在SparkSql的後設資料中也是獨立於其他普通欄位,進行了單獨的標示,就是為了方便語義分析邏輯能區別處理Sql語句中where條件裡的這種特殊情況。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69912579/viewspace-2645267/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 【大資料】SparkSql 連線查詢中的謂詞下推處理 (二)大資料SparkSQL
- 大資料SQL中的Join謂詞下推,真的那麼難懂?大資料SQL
- nodejs 連線 mysql 查詢事務處理NodeJSMySql
- MySql中的資料查詢語言(DQL)三:連線查詢MySql
- 【SQL】Oracle查詢轉換之謂詞推送SQLOracle
- PHP連線、查詢MySQL資料庫PHPMySql資料庫
- python中多程式處理資料庫連線的問題Python資料庫
- 資料庫學習(四)連線查詢資料庫
- (十) 資料庫查詢處理之排序(sorting)資料庫排序
- (十三)資料庫查詢處理之QueryExecution(2)資料庫
- 3.DQL資料查詢語言(內連線,外連線,自連線)
- 謂詞下推:計算和儲存分開進行分析是低效的?
- Oracle 12CR2查詢轉換之謂詞推送Oracle
- 資料庫連線異常處理思路資料庫
- JDBC連線批量處理資料入庫JDBC
- 連線查詢
- 在`Laravel`中使用`cursor`來查詢並處理資料 (輕鬆處理千萬級的資料)Laravel
- 在Laravel中使用cursor來查詢並處理資料 (輕鬆處理千萬級的資料)Laravel
- (十二)資料庫查詢處理之Query Execution(1)資料庫
- SQL Server 資料庫查詢死鎖的處理步驟SQLServer資料庫
- 通用資料庫/源連線管理分析查詢DBeaverEE資料庫
- 【資料庫】查詢優化之子連線優化資料庫優化
- go 連線資料庫 - GORM學習 - sql查詢Go資料庫ORMSQL
- 處理文字資料(上):詞袋
- 利用SQL Profiler處理開銷較大的查詢SQL
- php基礎之連線mysql資料庫和查詢資料PHPMySql資料庫
- CDA資料分析師 - SQL資料庫基礎 查詢&連線SQL資料庫
- oracle 連線查詢Oracle
- SQL連線查詢SQL
- [這可能是最好的Spring教程!]JDBC中資料庫的連線與查詢SpringJDBC資料庫
- KunlunDB查詢優化(三)排序下推優化排序
- sql 連線查詢例項(left join)三表連線查詢SQL
- 查詢資料庫授權以及授權到期的處理方法資料庫
- MySQL之連線查詢和子查詢MySql
- mysql查詢語句5:連線查詢MySql
- CodeQL學習筆記(1)-QL語法(邏輯連線詞、量詞、聚合詞、謂詞和類)筆記
- 關於同一個連線不同資料庫之間的 Eloquent 關聯查詢資料庫
- Hibernate-ORM:13.Hibernate中的連線查詢ORM