[Hadoop]Sqoop 1.4.2中文文件(二)之資料匯出
[size=large][b]一、sqoop-export[/b][/size]
相關引數:
從這裡我們可以看到,大部分的引數使用是與匯入相同的,只有少部分是匯出專用的。
既然匯入和匯出的道理都是相同的,那麼我就不按照自己的理解把官網上的話變成自己的話了。直接看一個例子:(這裡如果你不懂,請把資料匯入完整看完)
相關引數:
usage: sqoop export [GENERIC-ARGS] [TOOL-ARGS]
Common arguments:
--connect <jdbc-uri> Specify JDBC connect
string
--connection-manager <class-name> Specify connection manager
class name
--connection-param-file <properties-file> Specify connection
parameters file
--driver <class-name> Manually specify JDBC
driver class to use
--hadoop-home <dir> Override $HADOOP_HOME
--help Print usage instructions
-P Read password from console
--password <password> Set authentication
password
--username <username> Set authentication
username
--verbose Print more information
while working
Export control arguments:
--batch Indicates underlying statements to be
executed in batch mode
--clear-staging-table Indicates that any data in staging
table can be deleted
--direct Use direct export fast path
--export-dir <dir> HDFS source path for the export
-m,--num-mappers <n> Use 'n' map tasks to export in parallel
--staging-table <table-name> Intermediate staging table
--table <table-name> Table to populate
--update-key <key> Update records by specified key column
--update-mode <mode> Specifies how updates are performed
when new rows are found with
non-matching keys in database
Input parsing arguments:
--input-enclosed-by <char> Sets a required field encloser
--input-escaped-by <char> Sets the input escape
character
--input-fields-terminated-by <char> Sets the input field separator
--input-lines-terminated-by <char> Sets the input end-of-line
char
--input-optionally-enclosed-by <char> Sets a field enclosing
character
Output line formatting arguments:
--enclosed-by <char> Sets a required field enclosing
character
--escaped-by <char> Sets the escape character
--fields-terminated-by <char> Sets the field separator character
--lines-terminated-by <char> Sets the end-of-line character
--mysql-delimiters Uses MySQL's default delimiter set:
fields: , lines: \n escaped-by: \
optionally-enclosed-by: '
--optionally-enclosed-by <char> Sets a field enclosing character
Code generation arguments:
--bindir <dir> Output directory for compiled
objects
--class-name <name> Sets the generated class name.
This overrides --package-name.
When combined with --jar-file,
sets the input class.
--input-null-non-string <null-str> Input null non-string
representation
--input-null-string <null-str> Input null string representation
--jar-file <file> Disable code generation; use
specified jar
--map-column-java <arg> Override mapping for specific
columns to java types
--null-non-string <null-str> Null non-string representation
--null-string <null-str> Null string representation
--outdir <dir> Output directory for generated
code
--package-name <name> Put auto-generated classes in
this package
Generic Hadoop command-line arguments:
(must preceed any tool-specific arguments)
Generic options supported are
-conf <configuration file> specify an application configuration file
-D <property=value> use value for given property
-fs <local|namenode:port> specify a namenode
-jt <local|jobtracker:port> specify a job tracker
-files <comma separated list of files> specify comma separated files to be copied to the map reduce cluster
-libjars <comma separated list of jars> specify comma separated jar files to include in the classpath.
-archives <comma separated list of archives> specify comma separated archives to be unarchived on the compute machines.
從這裡我們可以看到,大部分的引數使用是與匯入相同的,只有少部分是匯出專用的。
既然匯入和匯出的道理都是相同的,那麼我就不按照自己的理解把官網上的話變成自己的話了。直接看一個例子:(這裡如果你不懂,請把資料匯入完整看完)
$ sqoop export --connect jdbc:mysql://db.example.com/foo --table bar \
--export-dir /results/bar_data
相關文章
- [Hadoop]Sqoop 1.4.2中文文件(一)之資料匯入Hadoop
- [Hadoop]Sqoop 1.4.2中文文件(三)之SqoopJob與其外的操作Hadoop
- sqoop資料匯入匯出OOP
- sqoop用法之mysql與hive資料匯入匯出OOPMySqlHive
- hadoop匯入資料工具sqoop介紹Hadoop
- 資料搬運元件:基於Sqoop管理資料匯入和匯出元件OOP
- Sqoop匯出ClickHouse資料到HiveOOPHive
- 資料泵匯出匯入資料標準文件
- sqoop部署及匯入與匯出OOP
- sqoop定時增量匯入匯出OOP
- [Hadoop]Hive r0.9.0中文文件(一)之資料操作語句HadoopHive
- 大資料時代之hadoop(六):hadoop 生態圈(pig,hive,hbase,ZooKeeper,Sqoop)大資料HadoopHive
- Sqoop匯入資料異常處理OOP
- [Hadoop]Hive r0.9.0中文文件(二)之聯表查詢JoinHadoopHive
- 從零自學Hadoop(16):Hive資料匯入匯出,叢集資料遷移上HadoopHive
- 從零自學Hadoop(17):Hive資料匯入匯出,叢集資料遷移下HadoopHive
- Sqoop將MySQL資料匯入到hive中OOPMySqlHive
- 大資料時代之hadoop(二):hadoop指令碼解析大資料Hadoop指令碼
- SQLServer 異構資料庫之間資料的匯入匯出SQLServer資料庫
- 資料泵避免個別表資料的匯出(二)
- MySQL資料匯入匯出之Load data fileMySql
- sqoop1.4.7環境搭建及mysql資料匯入匯出到hiveOOPMySqlHive
- POI匯入Excel中文API文件ExcelAPI
- 騰訊文件怎樣匯出excel表格 騰訊文件如何匯出excelExcel
- 資料庫 MySQL 資料匯入匯出資料庫MySql
- 【Hadoop】9、Sqoop元件Hadoop元件
- Hadoop Sqoop介紹Hadoop
- mindmaster匯出markdown文件AST
- IText匯出Word文件
- python驅動SAP完成資料匯出(二)Python
- 利用資料泵匯出查詢結果(二)
- [Docker核心之容器、資料庫檔案的匯入匯出、容器映象的匯入匯出]Docker資料庫
- 資料泵匯出匯入
- Oracle 資料匯入匯出Oracle
- mysql資料匯入匯出MySql
- mysql資料匯出匯入MySql
- Oracle資料匯入匯出Oracle
- 10g資料泵和匯入匯出效能對比(二)