Hive中配置與編寫自定義UDF函式
環境介紹:CentOS7+hive-1.1.0-cdh5.7.0+IntelliJ IDEA+Maven3.3.9
1、建立工程
開啟IntelliJ IDEA
File-->New-->Project...-->Maven選擇Create from archetye-->org.apache.maven.archety:maven-archetype-quitkstart
2、配置
2.1、增加內容如下:
在工程中找到pom.xml檔案中hadoop-common 、hive-exec 、hive-jdbc
2.2、在<repository></repository>中修改內容如下:
3、建立類,並編寫一個UDF HelloUDF.java,程式碼如下:
4、測試UDF類,在上又鍵選擇Run 'HelloUDF.main()'
5、打包:
在IDEA選單中選擇view-->Tool Windows-->Maven Projects,然後在Maven Projects視窗中選擇【工程名】-->Lifecycle-->package,在package中右鍵選擇Run Maven Build開始打包
執行成功後在日誌中找:
[INFO] Building jar: D:\software\ruozedata_workspace\basic02-hive\target\hive-1.0.jar
若澤大資料交流群:671914634
1、建立工程
開啟IntelliJ IDEA
File-->New-->Project...-->Maven選擇Create from archetye-->org.apache.maven.archety:maven-archetype-quitkstart
2、配置
2.1、增加內容如下:
在工程中找到pom.xml檔案中hadoop-common 、hive-exec 、hive-jdbc
點選(此處)摺疊或開啟
-
<properties>
-
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
-
-
-
<!-- hadoop、hive版本資訊 -->
-
<hadoop.version>2.6.0-cdh5.7.0</hadoop.version>
-
<hive.version>1.1.0-cdh5.7.0</hive.version>
-
</properties>
-
-
-
<!-- hadoop依賴 -->
-
<dependency>
-
<groupId>org.apache.hadoop</groupId>
-
<artifactId>hadoop-common</artifactId>
-
<version>${hadoop.version}</version>
-
</dependency>
-
-
-
<!-- hive依賴 -->
-
<dependency>
-
<groupId>org.apache.hive</groupId>
-
<artifactId>hive-exec</artifactId>
-
<version>${hive.version}</version>
-
</dependency>
-
</dependencies>
-
-
<!-- cdn資源倉庫 -->
-
<repositories>
-
<repository>
-
<id>cloudera</id>
-
<url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
-
</repository>
- </repositories>
點選(此處)摺疊或開啟
-
<dependency>
-
<groupId>junit</groupId>
-
<artifactId>junit</artifactId>
-
<version>4.10</version>
-
<scope>test</scope>
- </dependency>
點選(此處)摺疊或開啟
-
package org.apache.hadoop.hive.ql.udf;
-
-
-
import org.apache.hadoop.hive.ql.exec.UDF;
-
import org.apache.hadoop.io.Text;
-
-
-
public class HelloUDF extends UDF {
-
public Text evaluate(Text input) {
-
return new Text("Hello:" + input);
-
}
-
-
-
public static void main(String args[]){
-
HelloUDF helloUDF = new HelloUDF();
-
Text rs = helloUDF.evaluate(new Text("zhangsan"));
-
System.out.println(rs.toString());
-
}
- }
5、打包:
在IDEA選單中選擇view-->Tool Windows-->Maven Projects,然後在Maven Projects視窗中選擇【工程名】-->Lifecycle-->package,在package中右鍵選擇Run Maven Build開始打包
執行成功後在日誌中找:
[INFO] Building jar: D:\software\ruozedata_workspace\basic02-hive\target\hive-1.0.jar
若澤大資料交流群:671914634
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31511218/viewspace-2150099/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Hive函式(內建函式+自定義標準函式UDF)Hive函式
- Hive中新增自定義函式(UDF)方法及實踐Hive函式
- Hive中自定義函式Hive函式
- HIVE中的自定義函式Hive函式
- 開發hive UDF函式Hive函式
- hive 3.0.0自定義函式Hive函式
- Apache Phoenix自定義函式(UDF)實踐Apache函式
- 自定義UDF函式應用異常函式
- Hive常用函式及自定義函式Hive函式
- hive編寫udf實踐記錄Hive
- HIVE自定義函式的擴充套件Hive函式套件
- Hive--->建立自定義的UDTF函式Hive函式
- 一個用lua編寫的自定義函式函式
- 【Spark篇】---SparkSQL中自定義UDF和UDAF,開窗函式的應用SparkSQL函式
- Excel 開始支援使用 JavaScript 編寫自定義函式ExcelJavaScript函式
- Spark SQL使用簡介(2)--UDF(使用者自定義函式)SparkSQL函式
- Oracle中自定義函式Oracle函式
- Hive中的UDF詳解Hive
- TDengine 3.0 中如何編譯、建立和使用自定義函式編譯函式
- SparkSQL -- 02 【SparkSQL檔案的讀取與落地,和Hive的整合,內建函式,自定義函式】SparkSQLHive函式
- SQL Server 2005中的UDF(使用者定義函式)SQLServer函式
- matlab自定義函式建立與使用Matlab函式
- spark三種清理資料的方式:UDF,自定義函式,spark.sql;Python中的zip()與*zip()函式詳解//及python中的*args和**kwargsSpark函式SQLPython
- shell自定義函式函式
- Oracle 自定義函式Oracle函式
- perl自定義函式函式
- PostgreSQL編寫自定義extensionSQL
- MySQL自定義函式與儲存過程MySql函式儲存過程
- 在資料庫中自定義外部函式資料庫函式
- hive學習筆記之十:使用者自定義聚合函式(UDAF)Hive筆記函式
- MySQL建立自定義函式MySql函式
- python 自定義函式Python函式
- oracle 自定義聚合函式Oracle函式
- mysql自定義函式篇MySql函式
- 一個自定義函式函式
- Oracle自定義聚集函式Oracle函式
- ORACLE 自定義函式BUG?Oracle函式
- SQL SERVER 自定義函式SQLServer函式