CDH 5.13.0安裝Spark 2.2
1.將CDH環境安裝好
2.在CDH的主節點和備節點建立目錄
[root@yp-test-3 / ]# mkdir /opt/cloudera/csd/
3.下載Spark 2.2軟體包
下載csd地址: --對應系統版本( )
下載parcel庫地址: 一共有四個檔案:
[root@yp-test-3 csd]# ll
total 176904
-rw-r--r-- 1 root root 5171 Oct 30 17:44 manifest.json
-rw-r--r-- 1 root root 181104738 Oct 30 17:48 SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055-el7.parcel
-rw-r--r-- 1 root root 41 Oct 30 17:42 SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055-el7.parcel.sha
-rw-r--r-- 1 root root 17493 Oct 30 17:42 SPARK2_ON_YARN-2.2.0.cloudera4.jar
[root@yp-test-3 csd]#
4.在CDH介面新增parcel庫
5.新增apsrk 2.2服務
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/25854343/viewspace-2218133/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- CDH 5.13.0安裝方法
- CDH 5.13.0安裝到分配時出現“主機執行狀態不良”
- CDH版Hadoop-zookeeper-hbase-spark安裝文件HadoopSpark
- CDH5.13.0版本叢集安裝更新spark2部署及問題彙總(史上最全,無坑)H5Spark
- CDH - [02] 安裝部署
- CDH6 離線安裝
- CDH6.2.0安裝步驟
- Cloudera Manager安裝 & 搭建CDH叢集Cloud
- CDH安裝大資料叢集大資料
- CDH安裝時出現的坑
- Hive-1.1.0-cdh5.7.0安裝部署HiveH5
- SPARK 安裝之scala 安裝Spark
- Maven的安裝/2.2 Linux下的安裝MavenLinux
- 2.2. 安裝Oracle軟體Oracle
- CDH5.8.2安裝之Hash verification failedH5AI
- Apache Kyuubi 助力 CDH 解鎖 Spark SQLApacheSparkSQL
- 初學Spark——關於安裝SparkSpark
- 【Hyperledger Fabric】Fabric 2.2 手動安裝
- spark之 spark 2.2.0 Standalone安裝、wordCount演示Spark
- Hadoop-2.6.0-cdh5.7.0安裝詳解HadoopH5
- CDH5.X完全解除安裝步驟H5
- ruby2.2安裝錯誤一則
- 部署Spark2.2叢集(on Yarn模式)SparkYarn模式
- 部署spark2.2叢集(standalone模式)Spark模式
- CDH impala for Apache HADOOP 安裝編譯步驟.ApacheHadoop編譯
- CDH 5.14.2 Phoenix Install (離線版本安裝)
- centos7環境下安裝CM、CDH(未完)CentOS
- 1.Spark學習(Python版本):Spark安裝SparkPython
- Apache 2.2 + Php 5.1 安裝問題解決ApachePHP
- Spark 安裝部署與快速上手Spark
- Windows 10 安裝Spark2.1WindowsSpark
- Hadoop CDH版本安裝和啟動(CentOS7)HadoopCentOS
- Cloudera CDH 、Impala本地透過Parcel安裝配置詳解Cloud
- Cloudera Manager5之安裝部署CDH5.XCloudH5
- 本地windows搭建spark環境,安裝與詳細配置(jdk安裝與配置,scala安裝與配置,hadoop安裝與配置,spark安裝與配置)WindowsSparkJDKHadoop
- 檢視spark程式執行狀態以及安裝sparkSpark
- centos6下安裝部署hadoop2.2CentOSHadoop
- CentOS6.5 安裝Spark叢集CentOSSpark