HADOOP SPARK 叢集環境搭建
目標:
在已經存在的4個節點的hadoop 2.6叢集上基礎上,搭建spark叢集。
4個機器分別為: master、slave1、slave2、slave3
1、資源下載
根據要求,SCALA要2.11.x。
SCALA下載: http://scala-lang.org/download/2.11.8.html
SPARK下載: http://spark.apache.org/downloads.html
SPARK下載: http://spark.apache.org/downloads.html
2、解壓安裝檔案
下載完後的檔案:解壓到/usr/local/ 目錄下。
scala-2.11.8.tgz
spark-2.0.0-bin-hadoop2.6.tgz
tar -zxvf scala-2.11.8.tgz
mv scala-2.11.8 /usr/local/
tar -zxvf spark-2.0.0-bin-hadoop2.6.tgz
mv spark-2.0.0-bin-hadoop2.6 /usr/local/
3、SCALA、SPARK配置
scala官網配置介紹
spark官網配置介紹
配置清單:
1、profile增加環境變數 (/etc/profile)
export JAVA_HOME=/usr/local/jdk1.7.0_67
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export HADOOP_HOME=/usr/local/hadoop-2.6.0
export PATH=$PATH:$HADOOP_HOME/bin
export SCALA_HOME=/usr/local/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
2、slave (/usr/local/spark-2.0.0-bin-hadoop2.6/conf/slave )
slave1
slave2
slave3
3、spark-env.sh (/usr/local/spark-2.0.0-bin-hadoop2.6/conf/spark-env.sh )
export JAVA_HOME=/usr/local/jdk1.7.0_67
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_MASTER_HOST=master
export SPARK_WORKER_MEMORY=512m
4、啟動叢集
sbin/start-all.sh
啟動後通過jps命令檢視程式有沒有啟動。
可以看到Master、Worker程式則啟動成功
5、測試叢集
cd 到example/jar目錄下。 執行樣例任務。
../../bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode cluster spark-examples*.jar 10
看能看到輸出了pi的值。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/30066956/viewspace-2123915/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- hadoop叢集環境搭建Hadoop
- Hadoop叢集之 ZooKeeper和Hbase環境搭建Hadoop
- 【環境搭建】RocketMQ叢集搭建MQ
- Hadoop框架:叢集模式下分散式環境搭建Hadoop框架模式分散式
- Ubuntu上搭建Hadoop叢集環境的步驟UbuntuHadoop
- hadoop2.6.0版本叢集環境搭建Hadoop
- Linux 下 Hadoop 2.6.0 叢集環境的搭建LinuxHadoop
- Zookeeper 叢集環境搭建
- hadoop之旅9-centerOS7 : hbase叢集環境搭建HadoopROS
- Linux 環境下搭建Hadoop叢集(全分佈)LinuxHadoop
- Linux下Hadoop2.6.0叢集環境的搭建LinuxHadoop
- es 5.5.3叢集環境搭建
- Glassfish叢集環境的搭建
- 從 0 開始使用 Docker 快速搭建 Hadoop 叢集環境DockerHadoop
- 如何基於Jupyter notebook搭建Spark叢集開發環境Spark開發環境
- Redis叢集環境搭建實踐Redis
- 12. Redis叢集環境搭建Redis
- 搭建spark on yarn 叢集SparkYarn
- 搭建5個節點的hadoop叢集環境(CDH5)HadoopH5
- Hadoop叢集環境啟動順序Hadoop
- spark環境搭建Spark
- Hadoop2.7.3+Hive2.1.1+Spark2.1.0環境搭建HadoopHiveSpark
- Hadoop叢集搭建Hadoop
- Hadoop搭建叢集Hadoop
- 高可用叢集環境搭建-留檔
- Mac 環境下 Redis 叢集的搭建MacRedis
- k8s——搭建叢集環境K8S
- Spark3.0.0叢集搭建Spark
- [Hadoop踩坑]叢集分散式環境配置Hadoop分散式
- Hadoop 及Spark 分散式HA執行環境搭建HadoopSpark分散式
- Spark開發-spark環境搭建Spark
- Spark on Yarn 環境搭建SparkYarn
- 從0到1搭建spark叢集---企業叢集搭建Spark
- 4.4 Hadoop叢集搭建Hadoop
- Hadoop叢集搭建(一)Hadoop
- ZooKeeper 系列(二)—— Zookeeper單機環境和叢集環境搭建
- 開源叢集計算環境:Spark 1.1.0釋出Spark
- Windows 10環境簡單搭建ELK叢集Windows