CDH 5.13.0安裝Spark 2.2
1.將CDH環境安裝好
2.在CDH的主節點和備節點建立目錄
[root@yp-test-3 / ]# mkdir /opt/cloudera/csd/
3.下載Spark 2.2軟體包
下載csd地址: --對應系統版本( )
下載parcel庫地址: 一共有四個檔案:
[root@yp-test-3 csd]# ll
total 176904
-rw-r--r-- 1 root root 5171 Oct 30 17:44 manifest.json
-rw-r--r-- 1 root root 181104738 Oct 30 17:48 SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055-el7.parcel
-rw-r--r-- 1 root root 41 Oct 30 17:42 SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055-el7.parcel.sha
-rw-r--r-- 1 root root 17493 Oct 30 17:42 SPARK2_ON_YARN-2.2.0.cloudera4.jar
[root@yp-test-3 csd]#
4.在CDH介面新增parcel庫
5.新增apsrk 2.2服務
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/25854343/viewspace-2218133/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- CDH版Hadoop-zookeeper-hbase-spark安裝文件HadoopSpark
- CDH5.13.0版本叢集安裝更新spark2部署及問題彙總(史上最全,無坑)H5Spark
- CDH - [02] 安裝部署
- CDH6.2.0安裝步驟
- CDH6 離線安裝
- Maven的安裝/2.2 Linux下的安裝MavenLinux
- CDH安裝時出現的坑
- Hive-1.1.0-cdh5.7.0安裝部署HiveH5
- CDH安裝大資料叢集大資料
- Cloudera Manager安裝 & 搭建CDH叢集Cloud
- 2.2. 安裝Oracle軟體Oracle
- CDH 5.14.2 Phoenix Install (離線版本安裝)
- Hadoop-2.6.0-cdh5.7.0安裝詳解HadoopH5
- Apache Kyuubi 助力 CDH 解鎖 Spark SQLApacheSparkSQL
- 【Hyperledger Fabric】Fabric 2.2 手動安裝
- Spark安裝與配置Spark
- CDH impala for Apache HADOOP 安裝編譯步驟.ApacheHadoop編譯
- 1.Spark學習(Python版本):Spark安裝SparkPython
- centos7環境下安裝CM、CDH(未完)CentOS
- Hadoop CDH版本安裝和啟動(CentOS7)HadoopCentOS
- cdh 叢集安裝
- 部署Spark2.2叢集(on Yarn模式)SparkYarn模式
- 部署spark2.2叢集(standalone模式)Spark模式
- 本地windows搭建spark環境,安裝與詳細配置(jdk安裝與配置,scala安裝與配置,hadoop安裝與配置,spark安裝與配置)WindowsSparkJDKHadoop
- Spark 安裝部署與快速上手Spark
- 檢視spark程式執行狀態以及安裝sparkSpark
- centos7 (阿里雲、linux) 單機spark的安裝與配置詳解(jdk安裝與配置,scala安裝與配置,hadoop安裝與配置,spark安裝與配置)CentOS阿里LinuxSparkJDKHadoop
- 大資料叢集搭建 – 2. CDH叢集安裝 – NTP,MYSQL,nginx安裝大資料MySqlNginx
- 離線安裝Cloudera Manager 5和CDH5(最新版5.9.3) 完全教程(七)介面安裝CloudH5
- Linux環境Spark安裝配置及使用LinuxSpark
- 單個虛擬機器安裝spark虛擬機Spark
- 手把手教你在本機安裝sparkSpark
- Spark從入門到放棄——Spark2.4.7安裝和啟動(二)Spark
- CentOS:spark-project專案的CentOS 6.4安裝配置CentOSSparkProject
- httpd 一鍵編譯安裝指令碼(centos6&7_httpd2.2&2.4)httpd編譯指令碼CentOS
- cdh版spark on yarn與idea直連操作sql遇到的一些問題SparkYarnIdeaSQL
- hadoop3.x+scala+spark-mac血淚安裝經驗!!HadoopSparkMac
- python中安裝配置pyspark庫教程需要配合spark+hadoop使用PythonSparkHadoop