Sqoop將MySQL資料匯入到hive中
錯誤解決:http://blog.itpub.net/25854343/viewspace-2565234/
MySQL表:
mysql> desc t3;
+----------------+------------+------+-----+---------+-------+
| Field | Type | Null | Key | Default | Extra |
+----------------+------------+------+-----+---------+-------+
| ISVALID | int(11) | YES | MUL | NULL | |
| CREATETIME | datetime | YES | | NULL | |
| UPDATETIME | datetime | YES | | NULL | |
| CONC_UNI_CODE | bigint(20) | YES | | NULL | |
| COM_UNI_CODE | bigint(20) | YES | | NULL | |
| FUND_INFW_REL | double | YES | | NULL | |
| MARK_MANI_REL | double | YES | | NULL | |
| STOCK_FREQ_REL | double | YES | | NULL | |
| STOCK_CONC_REL | double | YES | | NULL | |
+----------------+------------+------+-----+---------+-------+
9 rows in set (0.01 sec)
mysql>
hive中自己建立表:
hive> create table tt1(
ISVALID int,
CREATETIME TIMESTAMP,
UPDATETIME TIMESTAMP,
CONC_UNI_CODE bigint,
COM_UNI_CODE bigint,
FUND_INFW_REL double,
MARK_MANI_REL double,
STOCK_FREQ_REL double,
STOCK_CONC_REL double)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' ;
hive>
1.將Mysql資料匯入到hive中(提前在hive中建立表)
(1).匯入資料到HDFS中
[hdfs@jingong01 ~]$ sqoop import --connect jdbc:mysql://172.16.8.93:3306/db_stktag --username wangying --password wangying --table t3 --target-dir /user/tong/123 --num-mappers 1 --hive-table tt1 -m 1 --split-by date --direct --fields-terminated-by '\t'
(2).載入資料
hive> load data inpath '/user/tong/123' into table tt1;
hive> select * from tt1 limit 2;
OK
0 2015-06-12 10:00:04 2016-07-28 18:00:16 5001000008 3000001022 80.0 90.0 70.0 85.0
0 2015-06-12 10:00:04 2015-12-22 15:18:25 5001000008 3000078316 30.0 80.0 70.0 64.0
Time taken: 0.089 seconds, Fetched: 2 row(s)
hive>
2.直接從Mysql匯入到hive中,不需要load data載入
[hdfs@jingong01 ~]$ cat test.sql
create table test(
ISVALID int,
CREATETIME TIMESTAMP,
UPDATETIME TIMESTAMP,
CONC_UNI_CODE bigint,
COM_UNI_CODE bigint,
FUND_INFW_REL double,
MARK_MANI_REL double,
STOCK_FREQ_REL double,
STOCK_CONC_REL double)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
[hdfs@jingong01 ~]$ hive -f test.sql --建立表
Logging initialized using configuration in jar:file:/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hive/lib/hive-common-1.1.0-cdh5.13.0.jar!/hive-log4j.properties
OK
Time taken: 6.709 seconds
[hdfs@jingong01 ~]$ sqoop import --connect jdbc:mysql://172.16.8.93:3306/db_stktag --username wangying --password wangying --table t3 --delete-target-dir --num-mappers 1 --hive-import -m 1 --hive-table test --fields-terminated-by '\t' --匯入資料
。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
19/01/30 15:35:38 INFO hive.HiveImport: OK
19/01/30 15:35:38 INFO hive.HiveImport: Time taken: 6.207 seconds
19/01/30 15:35:38 INFO hive.HiveImport: Loading data to table default.test
19/01/30 15:35:38 INFO hive.HiveImport: Table default.test stats: [numFiles=1, totalSize=3571294]
19/01/30 15:35:38 INFO hive.HiveImport: OK
19/01/30 15:35:38 INFO hive.HiveImport: Time taken: 0.615 seconds
19/01/30 15:35:38 INFO hive.HiveImport: WARN: The method class org.apache.commons.logging.impl.SLF4JLogFactory#release() was invoked.
19/01/30 15:35:38 INFO hive.HiveImport: WARN: Please see for an explanation.
19/01/30 15:35:39 INFO hive.HiveImport: Hive import complete.
19/01/30 15:35:39 INFO hive.HiveImport: Export directory is contains the _SUCCESS file only, removing the directory.
[hdfs@jingong01 ~]$ hive
Logging initialized using configuration in jar:file:/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hive/lib/hive-common-1.1.0-cdh5.13.0.jar!/hive-log4j.properties
hive> select * from test limit 2;
OK
0 2015-06-12 10:00:04 2016-07-28 18:00:16 5001000008 3000001022 80.0 90.0 70.0 85.0
0 2015-06-12 10:00:04 2015-12-22 15:18:25 5001000008 3000078316 30.0 80.0 70.0 64.0
Time taken: 0.058 seconds, Fetched: 2 row(s)
hive>
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/25854343/viewspace-2565248/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- sqoop用法之mysql與hive資料匯入匯出OOPMySqlHive
- mysql 資料sqoop到hive 步驟MySqlOOPHive
- sqoop1.4.7環境搭建及mysql資料匯入匯出到hiveOOPMySqlHive
- 【問題排查】sqoop將mysql匯入hive異常:No suitable driverOOPMySqlHiveUI
- sqoop進行將Hive 詞頻統計的結果資料傳輸到Mysql中OOPHiveMySql
- 定時將資料匯入到hive的shell指令碼Hive指令碼
- 從hive將資料匯出到mysql(轉)HiveMySql
- 將Mysql資料匯入到ElasticSearch叢集MySqlElasticsearch
- 將資料從文字匯入到mysql(轉)MySql
- sqoop資料匯入匯出OOP
- MySQL資料匯入到infobright中MySql
- Sqoop匯出ClickHouse資料到HiveOOPHive
- .NET Core使用NPOI將Excel中的資料批量匯入到MySQLExcelMySql
- 將資料匯入kudu表(建立臨時hive表,從hive匯入kudu)步驟Hive
- 把ACCESS的資料匯入到Mysql中(轉)MySql
- pl/sql developer將excel資料匯入到資料庫中SQLDeveloperExcel資料庫
- Oracle資料匯入到Hive資料庫的操作方法OracleHive資料庫
- 【匯入匯出】將資料匯入到其他使用者
- Mysql 大資料表 資料匯入到SqlServer 中的方法MySql大資料Server
- HIVE資料匯入基礎Hive
- 將高版本mysql資料庫的資料匯入低版本mysql中MySql資料庫
- Sqoop匯入資料異常處理OOP
- 把Excel表資料匯入到mysqlExcelMySql
- 從Excel到匯入MYSQL資料庫ExcelMySql資料庫
- 如何將資料匯入到 SQL Server Compact Edition 資料庫中SQLServer資料庫
- Flume:資料匯入到hdfs中
- 如何將外部資料庫 匯入到系統的SQL中資料庫SQL
- GeoRapter工具將shapefile資料匯入到Oracle空間資料庫中APTOracle資料庫
- python將目標檢測資料匯入到指定資料庫中Python資料庫
- hadoop匯入資料工具sqoop介紹Hadoop
- [Hadoop]Sqoop 1.4.2中文文件(一)之資料匯入Hadoop
- Hive學習筆記 4 Hive的資料匯入Hive筆記
- 如何把資料從Mysql匯入到GreenplumMySql
- 資料搬運元件:基於Sqoop管理資料匯入和匯出元件OOP
- hive資料倉儲匯入資料的方法Hive
- sqoop匯出hive資料到mysql錯誤ava.util.NoSuchElementException解決辦法OOPHiveMySqlException
- odps平臺將資料匯入到hdfs
- mysql資料匯入匯出MySql