hive中partition如何使用
網上有篇關於hive的partition的使用講解的比較好,轉載了:
一、背景
1、在Hive Select查詢中一般會掃描整個表內容,會消耗很多時間做沒必要的工作。有時候只需要掃描表中關心的一部分資料,因此建表時引入了partition概念。
2、分割槽表指的是在建立表時指定的partition的分割槽空間。
3、如果需要建立有分割槽的表,需要在create表的時候呼叫可選引數partitioned by,詳見表建立的語法結構。
二、技術細節
1、一個表可以擁有一個或者多個分割槽,每個分割槽以資料夾的形式單獨存在表資料夾的目錄下。
2、表和列名不區分大小寫。
3、分割槽是以欄位的形式在表結構中存在,通過describe table命令可以檢視到欄位存在,但是該欄位不存放實際的資料內容,僅僅是分割槽的表示。
4、建表的語法(建分割槽可參見PARTITIONED BY引數):
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name data_type [COMMENT col_comment], …)] [COMMENT table_comment] [PARTITIONED BY (col_name data_type [COMMENT col_comment], …)] [CLUSTERED BY (col_name, col_name, …) [SORTED BY (col_name [ASC|DESC], …)] INTO num_buckets BUCKETS] [ROW FORMAT row_format] [STORED AS file_format] [LOCATION hdfs_path]
5、分割槽建表分為2種,一種是單分割槽,也就是說在表資料夾目錄下只有一級資料夾目錄。另外一種是多分割槽,表資料夾下出現多資料夾巢狀模式。
a、單分割槽建表語句:create table day_table (id int, content string) partitioned by (dt string);單分割槽表,按天分割槽,在表結構中存在id,content,dt三列。
b、雙分割槽建表語句:create table day_hour_table (id int, content string) partitioned by (dt string, hour string);雙分割槽表,按天和小時分割槽,在表結構中新增加了dt和hour兩列。
表資料夾目錄示意圖(多分割槽表):
6、新增分割槽表語法(表已建立,在此基礎上新增分割槽):
ALTER TABLE table_name ADD partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] … partition_spec: : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, …)
使用者可以用 ALTER TABLE ADD PARTITION 來向一個表中增加分割槽。當分割槽名是字串時加引號。例:
ALTER TABLE day_table ADD PARTITION (dt=’2008-08-08′, hour=’08’) location ‘/path/pv1.txt’ PARTITION (dt=’2008-08-08′, hour=’09’) location ‘/path/pv2.txt';
7、刪除分割槽語法:
ALTER TABLE table_name DROP partition_spec, partition_spec,…
使用者可以用 ALTER TABLE DROP PARTITION 來刪除分割槽。分割槽的後設資料和資料將被一併刪除。例:
ALTER TABLE day_hour_table DROP PARTITION (dt=’2008-08-08′, hour=’09’);
8、資料載入進分割槽表中語法:
LOAD DATA [LOCAL] INPATH ‘filepath’ [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]
例:
LOAD DATA INPATH ‘/user/pv.txt’ INTO TABLE day_hour_table PARTITION(dt=’2008-08- 08′, hour=’08’); LOAD DATA local INPATH ‘/user/hua/*’ INTO TABLE day_hour partition(dt=’2010-07- 07′);
當資料被載入至表中時,不會對資料進行任何轉換。Load操作只是將資料複製至Hive表對應的位置。資料載入時在表下自動建立一個目錄,檔案存放在該分割槽下。
9、基於分割槽的查詢的語句:
SELECT day_table.* FROM day_table WHERE day_table.dt>= ‘2008-08-08′;
10、檢視分割槽語句:
hive> show partitions day_hour_table; OK dt=2008-08-08/hour=08 dt=2008-08-08/hour=09 dt=2008-08-09/hour=09
三、總結
1、在 Hive 中,表中的一個 Partition 對應於表下的一個目錄,所有的 Partition 的資料都儲存在最字集的目錄中。
2、總的說來partition就是輔助查詢,縮小查詢範圍,加快資料的檢索速度和對資料按照一定的規格和條件進行管理。
相關文章
- hive dynamic partition的使用Hive
- hive partitionHive
- Hive partition prune的一個BugHive
- Hive篇---Hive使用優化Hive優化
- over partition簡單使用
- [Hadoop]Hive r0.9.0中文文件(四)之Hive變數的使用HadoopHive變數
- Partition|Disk Utility 如何分割磁碟
- [hive]hive資料模型中四種表Hive模型
- partition table中truncate應用
- HIVE中MAPJOIN可以使用的場景分析Hive
- partition table and partition indexIndex
- PARTITION partition01
- PARTITION partition02
- PARTITION partition04
- hive中的null值HiveNull
- row_number() partition order by 的使用
- [Hive]Union使用指南Hive
- 使用Hive處理WordCountHive
- Hive JOIN使用詳解Hive
- 【HIVE】hive 使用shell指令碼跑歷史資料Hive指令碼
- Pruning、Reference Partition、Exchange Partition
- partition timestamp(0) not use partition
- Hive中的UDF詳解Hive
- Hive中自定義函式Hive函式
- 高效的partition(使用分割槽條件)
- 巧妙使用exchange partition的一個案例
- hive視窗函式使用Hive函式
- 使用Hive隨機抽樣Hive隨機
- 一起學Hive——使用MSCK命令修復Hive分割槽Hive
- hive學習之三:專案中的hive優化實踐Hive優化
- 【hive】中的concat函式Hive函式
- 徹底理解Hive中的鎖Hive
- HIVE中的自定義函式Hive函式
- hive命令的3中呼叫方式Hive
- HIVE隨手記——Hive命令(?$HIVE_HOME/bin/hive)Hive
- 0459-如何使用SQuirreL通過JDBC連線CDH的Hive(方式一)UIJDBCHive
- 0039-如何使用PythonImpyla客戶端連線Hive和ImpalaPython客戶端Hive
- 使用docker快速搭建hive環境DockerHive