邏輯和物理計劃如何工作時讀蜂巢分割槽表在獸人pyspark dataframe嗎
我已經建立了一個火花dataframe閱讀csv hdfs的位置。
emp_df = spark.read.format("com.databricks.spark.csv") \ .option("mode", "DROPMALFORMED") \ .option("header", "true") \ .option("inferschema", "true") \ .option("delimiter", ",").load(PATH_TO_FILE)
並儲存這個dataframe蜂巢paritioned獸人使用partitionBy方法表
emp_df.repartition(5, 'emp_id').write.format('orc').partitionBy("emp_id").saveAsTable("UDB.temptable")
當我閱讀此表如下方法如果我看看邏輯和物理計劃,似乎它已經完全過濾的資料使用分割槽鍵列:
emp_df_1 = spark.sql("select * from UDB.temptable where emp_id ='6'")emp_df_1.explain(True)***************************************************************************== Parsed Logical Plan =='Project [*] +- 'Filter ('emp_id = 6) +- 'UnresolvedRelation `UDB`.`temptable`== Analyzed Logical Plan ==emp_name: string, emp_city: string, emp_salary: int, emp_id: intProject [emp_name#7399, emp_city#7400, emp_salary#7401, emp_id#7402]+- Filter (emp_id#7402 = cast(6 as int)) +- SubqueryAlias temptable +- Relation[emp_name#7399,emp_city#7400,emp_salary#7401,emp_id#7402] orc== Optimized Logical Plan ==Filter (isnotnull(emp_id#7402) && (emp_id#7402 = 6))+- Relation[emp_name#7399,emp_city#7400,emp_salary#7401,emp_id#7402] orc== Physical Plan ==*(1) FileScan orc udb.temptable[emp_name#7399,emp_city#7400,emp_salary#7401,emp_id#7402] Batched: true, Format: ORC, Location: PrunedInMemoryFileIndex[hdfs://pathlocation/database/udb...., PartitionCount: 1, PartitionFilters: [isnotnull(emp_id#7402), (emp_id#7402 = 6)], PushedFilters: [], ReadSchema: struct<emp_name:string,emp_city:string,emp_salary:int>***************************************************************************
而如果我讀這個dataframe透過絕對hdfs路徑位置,似乎不能夠過濾資料使用分割槽鍵列:
emp_df_2 = spark.read.format("orc").load("hdfs://pathlocation/database/udb.db/temptable/emp_id=6")emp_df_2.explain(True)******************************************************************************== Parsed Logical Plan ==Relation[emp_name#7411,emp_city#7412,emp_salary#7413] orc== Analyzed Logical Plan ==emp_name: string, emp_city: string, emp_salary: intRelation[emp_name#7411,emp_city#7412,emp_salary#7413] orc== Optimized Logical Plan ==Relation[emp_name#7411,emp_city#7412,emp_salary#7413] orc== Physical Plan ==*(1) FileScan orc [emp_name#7411,emp_city#7412,emp_salary#7413] Batched: true, Format: ORC, Location: InMemoryFileIndex[hdfs://pathlocation/data/database/udb.db/tem..., PartitionFilters: [], PushedFilters: [], ReadSchema: struct<emp_name:string,emp_city:string,emp_salary:int>********************************************************************************
你能幫我瞭解邏輯和物理計劃的情況下?
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31559515/viewspace-2222178/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Oracle物理讀和邏輯讀Oracle
- 在Oracle中,什麼是物理讀和邏輯讀?Oracle
- ENGINEER01 - 分割槽規劃和使用,LVM邏輯卷LVM
- 有關oracle邏輯讀和物理讀Oracle
- Linux主分割槽,擴充套件分割槽,邏輯分割槽Linux套件
- oracle分割槽表執行計劃Oracle
- Linux主分割槽,擴充套件分割槽,邏輯分割槽[final]Linux套件
- oracle 物理讀 邏輯讀的理解Oracle
- oracle 物理讀,邏輯讀的理解Oracle
- Linux下的磁碟分割槽和邏輯卷Linux
- oracle分割槽表和分割槽表exchangeOracle
- 硬解析和物理讀取與軟解析和邏輯讀取
- 【pyspark】dataframe常用操作Spark
- 淺析Win10系統主分割槽和邏輯分割槽的區別Win10
- oracle分割槽表和非分割槽表exchangeOracle
- 分割槽表與堆表執行計劃的不同
- 邏輯分割槽管理 LVM 概念及在Ubuntu中的使用?LVMUbuntu
- PySpark筆記(三):DataFrameSpark筆記
- PySpark DataFrame教程與演示Spark
- 如何查詢分割槽表的分割槽及子分割槽
- (轉)管理LVM2邏輯分割槽LVM
- 學習筆記】分割槽表和分割槽索引——新增表分割槽(二)筆記索引
- 分割槽 執行計劃
- 邏輯架構和物理架構架構
- linux 磁碟分割槽掛載-LVM-物理卷PV,卷組VG,邏輯卷LVLinuxLVM
- MySQL 5.5 檢視分割槽表的執行計劃MySql
- 硬解析物理讀VS軟解析邏輯讀 測試
- 全面學習分割槽表及分割槽索引(8)--增加和收縮表分割槽索引
- 【學習筆記】分割槽表和分割槽索引——分割槽表的其他管理(三)筆記索引
- 範圍分割槽表和INTERVAL分割槽表對於SPLIT分割槽的區別
- oracle 分割槽表move和包含分割槽表的lob moveOracle
- win10系統下將邏輯分割槽改為主分割槽的方法Win10
- 全面學習分割槽表及分割槽索引(15)--修改表分割槽屬性和模板索引
- 分割槽表中的區域性分割槽索引及全域性索引與執行計劃索引
- 【學習筆記】分割槽表和分割槽索引——管理索引分割槽(四)筆記索引
- 如何在 Linux 分割槽或邏輯卷中建立檔案系統Linux
- linux系統下分割槽邏輯卷擴容Linux
- 物理standby和邏輯standby的區別