spark2.2.0 配置spark sql 操作hive

laoma8888發表於2018-09-23

spark可以透過讀取hive的後設資料來相容hive,讀取hive的表資料,然後在spark引擎中進行sql統計分析,從而,透過spark sql與hive結合實現資料分析將成為一種最佳實踐。配置步驟如下:

 1、啟動hive的後設資料服務
hive可以透過服務的形式對外提供後設資料讀寫操作,透過簡單的配置即可
  編輯 $HIVE_HOME/conf/hive-site.xml,增加如下內容:
<property>
<name>hive.metastore.uris</name>
<value>thrift:// master:9083</value>
</property>

  啟動hive metastore

[root@master apache-hive-1.2.2-bin]# ./bin/hive --service metastore  1>/dev/null  2>&1  &

  檢視 metastore:

[root@master apache-hive-1.2.2-bin]# jobs
[1]+  Running                 ./bin/hive --service metastore > /dev/null 2>&1 &

 
2、spark配置
    將hive的配置檔案複製給spark
將 $HIVE_HOME/conf/hive-site.xml copy $SPARK_HOME/conf/

[root@master apache-hive-1.2.2-bin]# cp ./conf/hive-site.xml /usr/local/spark-2.3.0/conf/

 
   將mysql的jdbc驅動包複製給spark
將 $HIVE_HOME/lib/mysql-connector-java-5.1.12.jar copy或者軟鏈到$SPARK_HOME/lib/

[root@master lib]# cp ./mysql-connector-5.1.8.jar /usr/local/spark-2.3.0/jars/

 
3、啟動spark-sql的shell互動介面
   [root@master lib]# spark-sql 

4、在spark sql 中執行hive操作

spark-sql> show databases;

 

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31496956/viewspace-2214737/,如需轉載,請註明出處,否則將追究法律責任。

相關文章