Pig安裝及入門案例
【前言】
相比Java的MapReduce api,Pig為大型資料集的處理提供了更高層次的抽象,與MapReduce相比,Pig提供了更豐富的資料結構,一般都是多值和巢狀的資料結構。Pig還提供了一套更強大的資料變換操作,包括在MapReduce中被忽視的連線Join操作。 Pig 是一種探索大規模資料集的 指令碼語言。MapReducer 的一個主要的 缺點 就是開發的 週期太長 了。Pig相比效率更高,而pig的執行實際還是mr的執行。
Pig是基於hadoop的一個資料處理的框架。
MapReduce是使用java進行開發的,Pig有一套自己的資料處理語言,Pig的資料處理過程要轉化為MR來執行。
【Pig的安裝】
pig是基於hadoop執行的,所以在安裝pig之前要確保有hadoop環境並啟動執行hadoop;
pig的資料來源和輸出遠均為hdfs
pig的計算執行實際執行的mr
資源包地址:http://pan.baidu.com/s/1o6IDfhK
#解壓縮
tar -xzvf pig-0.11.1.tar.gz
#複製重新命名
mv pig-0.11.1 /usr/local
mv pig-0.11.1 pig
#home配置
vim /etc/profile
export PIG_HOME = /usr/local/pig
export PATH =......$PIG_HOME/bin....
source /etc/profile
#修改配置檔案
vim $PIG_HOME/conf/pig.properties
fs.default.name=hdfs://hadoop:9000 # 是hadoop的 core-site.xml 中的配置
mapred.job.tracker=hadoop:9001 #是hadoop的 mapred-site.xml 中的配置
# 測試
pig -version
【pig案例】計算使用者的總通訊流量
源測試資料:tel.txt
1363157985066 13726230503 00-FD-07-A4-72-B8:CMCC 120.196.100.82 i02.c.aliimg.com 24 27 2481 24681 200
1363157995052 13826544101 5C-0E-8B-C7-F1-E0:CMCC 120.197.40.4 4 0 264 0 200
1363157991076 13926435656 20-10-7A-28-CC-0A:CMCC 120.196.100.99 2 4 132 1512 200
1363154400022 13926251106 5C-0E-8B-8B-B1-50:CMCC 120.197.40.4 4 0 240 0 200
1363157993044 18211575961 94-71-AC-CD-E6-18:CMCC-EASY 120.196.100.99 iface.qiyi.com 視訊網站 15 12 1527 2106 200
1363157995074 84138413 5C-0E-8B-8C-E8-20:7DaysInn 120.197.40.4 122.72.52.12 20 16 4116 1432 200
1363157993055 13560439658 C4-17-FE-BA-DE-D9:CMCC 120.196.100.99 18 15 1116 954 200
1363157995033 15920133257 5C-0E-8B-C7-BA-20:CMCC 120.197.40.4 sug.so.360.cn 資訊保安 20 20 3156 2936 200
1363157983019 13719199419 68-A1-B7-03-07-B1:CMCC-EASY 120.196.100.82 4 0 240 0 200
1363157984041 13660577991 5C-0E-8B-92-5C-20:CMCC-EASY 120.197.40.4 s19.cnzz.com 站點統計 24 9 6960 690 200
1363157973098 15013685858 5C-0E-8B-C7-F7-90:CMCC 120.197.40.4 rank.ie.sogou.com 搜尋引擎 28 27 3659 3538 200
1363157986029 15989002119 E8-99-C4-4E-93-E0:CMCC-EASY 120.196.100.99 www.umeng.com 站點統計 3 3 1938 180 200
1363157992093 13560439658 C4-17-FE-BA-DE-D9:CMCC 120.196.100.99 15 9 918 4938 200
1363157986041 13480253104 5C-0E-8B-C7-FC-80:CMCC-EASY 120.197.40.4 3 3 180 180 200
1363157984040 13602846565 5C-0E-8B-8B-B6-00:CMCC 120.197.40.4 2052.flash2-http.qq.com 綜合門戶 15 12 1938 2910 200
1363157995093 13922314466 00-FD-07-A2-EC-BA:CMCC 120.196.100.82 img.qfc.cn 12 12 3008 3720 200
1363157982040 13502468823 5C-0A-5B-6A-0B-D4:CMCC-EASY 120.196.100.99 y0.ifengimg.com 綜合門戶 57 102 7335 110349 200
1363157986072 18320173382 84-25-DB-4F-10-1A:CMCC-EASY 120.196.100.99 input.shouji.sogou.com 搜尋引擎 21 18 9531 2412 200
1363157990043 13925057413 00-1F-64-E1-E6-9A:CMCC 120.196.100.55 t3.baidu.com 搜尋引擎 69 63 11058 48243 200
1363157988072 13760778710 00-FD-07-A4-7B-08:CMCC 120.196.100.82 2 2 120 120 200
1363157985066 13726238888 00-FD-07-A4-72-B8:CMCC 120.196.100.82 i02.c.aliimg.com 24 27 2481 24681 200
1363157993055 13560436666 C4-17-FE-BA-DE-D9:CMCC 120.196.100.99 18 15 1116 954 200
下面用pig對此資料進行業務分析
以下是操作流程
5.對tel.txt資料如何使用pig進行分析處理
5.1 把待處理的資料上傳到HDFS中
5.2 把HDFS中的資料轉換為pig可以處理的模式
A = LOAD '/wlan' AS (t0:long, msisdn:chararray, t2:chararray, t3:chararray, t4:chararray, t5:chararray, t6:long, t7:long, t8:long, t9:long, t10:chararray);
DUMP A 檢視
5.3 把裡面的有用的欄位抽取出來
B = FOREACH A GENERATE msisdn, t6, t7, t8, t9;
DUMP B 檢視
5.4 分組資料
C = GROUP B BY msisdn;
5.5 流量彙總
D = FOREACH C GENERATE group, SUM(B.t6), SUM(B.t7), SUM(B.t8), SUM(B.t9);
5.6 儲存到HDFS中
STORE D INTO '/wlan_result';
【1】上傳tex.txt到hdfs的/pigData上
hadoop fs -mkdir /pigData
hadoop fs -put /tel.txt /pigData
【2】把HDFS中的資料轉換為pig可以處理的模式
A = LOAD '/pigData/tel.txt' AS (t0:long, msisdn:chararray, t2:chararray, t3:chararray, t4:chararray, t5:chararray, t6:long, t7:long, t8:long, t9:long, t10:chararray);
#其中型別要與源資料對應,pig中沒有string型別,取代之的是chararray
#檢視A
DEMP A
【3】抽取有用的資料
#只獲取有用的列值
#獲取A中的msisdn, t6, t7, t8, t9幾列賦值給B
B = FOREACH A GENERATE msisdn, t6, t7, t8, t9;
#檢視
DUMP B
【4】分組資料
#將B的資料按照msisdn列分組並賦值給C
C = GROUP B BY msisdn;
#檢視
DUMP C
【5】流量彙總
#計算流量綜合
D = FOREACH C GENERATE group, SUM(B.t6), SUM(B.t7), SUM(B.t8), SUM(B.t9);
#檢視D
DUMP D
【6】將計算資料存入hdfs
#將最後的D彙總存入hdfs的/pigData/tel_result目錄下
STORE D INTO '/pigData/tel_result';
【7】檢視結果
pig資料型別等:http://blackproof.iteye.com/blog/1791980
【8】WC案例詳解圖
相關文章
- PIG安裝配置及案例應用
- (CMake):CMake安裝及快速入門案例
- Apache Pig 系列 一 [PIG的安裝]Apache
- Postman安裝及入門教程Postman
- Docker 入門及安裝[Docker 系列-1]Docker
- docker和docker compose安裝使用、入門進階案例Docker
- MapReduce入門及核心流程案例
- Zookeeper入門學習--01介紹及安裝
- 09、redis安裝入門Redis
- nuxt簡單入門安裝UX
- Kubernetes 入門與安裝部署
- NodeJs安裝與使用入門NodeJS
- Phalcon入門教程之安裝
- kafka入門安裝和使用Kafka
- Laravel入門(安裝部署篇)Laravel
- 【Android Studio】入門系列 2.下載安裝及初始化Android
- RabbitMQ入門案例MQ
- kafka入門案例Kafka
- vuex入門案例Vue
- Python入門(案例)Python
- Pulsar 入門實戰(3)--安裝
- Hadoop入門系列(2)-安裝HadoopHadoop
- 初識ClickHouse——安裝與入門
- Python安裝與Pycharm使用入門PythonPyCharm
- pip安裝和使用入門指南
- npm私服安裝教程 – verdaccio 入門NPM
- Terraform入門 – 1. 安裝TerraformORM
- 【Oracle】ASM例項安裝入門OracleASM
- Eclipse安裝lombok外掛及外掛使用案例EclipseLombok
- PyTorch深度學習入門筆記(一)PyTorch環境配置及安裝PyTorch深度學習筆記
- 【Redis學習⑴】Redis入門安裝及基礎資料的知識Redis
- Linux基礎入門:⑥Linux常見壓縮工具及程式包安裝及管理方式Linux
- java入門:安裝開發環境Java開發環境
- 1.RabbitMQ入門-概念、安裝、配置MQ
- 【openstack】cloudkitty元件,入門級安裝(快速)Cloud元件
- Sass 的入門安裝和基本使用
- kubernetes系列(十六) - Helm安裝和入門
- Laravel 5.4 入門系列 1. 安裝Laravel
- Apache Kylin 入門 3 - 安裝與配置Apache