Hive中配置與編寫自定義UDF函式
環境介紹:CentOS7+hive-1.1.0-cdh5.7.0+IntelliJ IDEA+Maven3.3.9
1、建立工程
開啟IntelliJ IDEA
File-->New-->Project...-->Maven選擇Create from archetye-->org.apache.maven.archety:maven-archetype-quitkstart
2、配置
2.1、增加內容如下:
在工程中找到pom.xml檔案中hadoop-common 、hive-exec 、hive-jdbc
2.2、在<repository></repository>中修改內容如下:
3、建立類,並編寫一個UDF HelloUDF.java,程式碼如下:
4、測試UDF類,在上又鍵選擇Run 'HelloUDF.main()'
5、打包:
在IDEA選單中選擇view-->Tool Windows-->Maven Projects,然後在Maven Projects視窗中選擇【工程名】-->Lifecycle-->package,在package中右鍵選擇Run Maven Build開始打包
執行成功後在日誌中找:
[INFO] Building jar: D:\software\ruozedata_workspace\basic02-hive\target\hive-1.0.jar
若澤大資料交流群:671914634
1、建立工程
開啟IntelliJ IDEA
File-->New-->Project...-->Maven選擇Create from archetye-->org.apache.maven.archety:maven-archetype-quitkstart
2、配置
2.1、增加內容如下:
在工程中找到pom.xml檔案中hadoop-common 、hive-exec 、hive-jdbc
點選(此處)摺疊或開啟
-
<properties>
-
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
-
-
-
<!-- hadoop、hive版本資訊 -->
-
<hadoop.version>2.6.0-cdh5.7.0</hadoop.version>
-
<hive.version>1.1.0-cdh5.7.0</hive.version>
-
</properties>
-
-
-
<!-- hadoop依賴 -->
-
<dependency>
-
<groupId>org.apache.hadoop</groupId>
-
<artifactId>hadoop-common</artifactId>
-
<version>${hadoop.version}</version>
-
</dependency>
-
-
-
<!-- hive依賴 -->
-
<dependency>
-
<groupId>org.apache.hive</groupId>
-
<artifactId>hive-exec</artifactId>
-
<version>${hive.version}</version>
-
</dependency>
-
</dependencies>
-
-
<!-- cdn資源倉庫 -->
-
<repositories>
-
<repository>
-
<id>cloudera</id>
-
<url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
-
</repository>
- </repositories>
點選(此處)摺疊或開啟
-
<dependency>
-
<groupId>junit</groupId>
-
<artifactId>junit</artifactId>
-
<version>4.10</version>
-
<scope>test</scope>
- </dependency>
點選(此處)摺疊或開啟
-
package org.apache.hadoop.hive.ql.udf;
-
-
-
import org.apache.hadoop.hive.ql.exec.UDF;
-
import org.apache.hadoop.io.Text;
-
-
-
public class HelloUDF extends UDF {
-
public Text evaluate(Text input) {
-
return new Text("Hello:" + input);
-
}
-
-
-
public static void main(String args[]){
-
HelloUDF helloUDF = new HelloUDF();
-
Text rs = helloUDF.evaluate(new Text("zhangsan"));
-
System.out.println(rs.toString());
-
}
- }
5、打包:
在IDEA選單中選擇view-->Tool Windows-->Maven Projects,然後在Maven Projects視窗中選擇【工程名】-->Lifecycle-->package,在package中右鍵選擇Run Maven Build開始打包
執行成功後在日誌中找:
[INFO] Building jar: D:\software\ruozedata_workspace\basic02-hive\target\hive-1.0.jar
若澤大資料交流群:671914634
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31511218/viewspace-2150099/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Hive函式(內建函式+自定義標準函式UDF)Hive函式
- Hive中自定義函式Hive函式
- hive 3.0.0自定義函式Hive函式
- Apache Phoenix自定義函式(UDF)實踐Apache函式
- Hive常用函式及自定義函式Hive函式
- hive編寫udf實踐記錄Hive
- HIVE自定義函式的擴充套件Hive函式套件
- Hive--->建立自定義的UDTF函式Hive函式
- Excel 開始支援使用 JavaScript 編寫自定義函式ExcelJavaScript函式
- Spark SQL使用簡介(2)--UDF(使用者自定義函式)SparkSQL函式
- TDengine 3.0 中如何編譯、建立和使用自定義函式編譯函式
- SparkSQL -- 02 【SparkSQL檔案的讀取與落地,和Hive的整合,內建函式,自定義函式】SparkSQLHive函式
- matlab自定義函式建立與使用Matlab函式
- Hive中的UDF詳解Hive
- spark三種清理資料的方式:UDF,自定義函式,spark.sql;Python中的zip()與*zip()函式詳解//及python中的*args和**kwargsSpark函式SQLPython
- Oracle 自定義函式Oracle函式
- shell自定義函式函式
- sql中select列有自定義函式 dblinkSQL函式
- PostgreSQL編寫自定義extensionSQL
- MySQL自定義函式與儲存過程MySql函式儲存過程
- Hive UDF,就這Hive
- python教程:自定義函式Python函式
- hive學習筆記之十:使用者自定義聚合函式(UDAF)Hive筆記函式
- java自定義equals函式和hashCode函式Java函式
- 【hive】中的concat函式Hive函式
- 解析如何在Bash中編寫函式函式
- 阿里雲智慧客服機器人,自定義函式呼叫配置阿里機器人函式
- 【Spark篇】---SparkSql之UDF函式和UDAF函式SparkSQL函式
- PHP 自定義函式用法及常用函式集合PHP函式
- Laravel 新增自定義助手函式Laravel函式
- laravel 自定義全域性函式Laravel函式
- Laravel 自定義函式存放位置Laravel函式
- Laravel自定義輔助函式Laravel函式
- FlinkSQL自定義函式開發SQL函式
- apiAutoTest:支援自定義函式,用例中可呼叫API函式
- 編號函式 自定義函式 集合型別 表的優化 資料傾斜函式型別優化
- hive函式Hive函式
- MySQL使用之五_自定義函式和自定義過程MySql函式
- JavaScript 設計模式系列 – 自定義函式(惰性函式)JavaScript設計模式函式