Spark 叢集搭建從零開始之3 Spark Standalone叢集安裝、配置與測試
1、進入pc1的Spark的conf目錄,建立或者修改spark-env.sh
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export SCALA_HOME=/chenjie/scala-2.10.4
export HADOOP_HOME=/chenjie/hadoop-2.6.5
export HADOOP_CONF_DIR=/chenjie/hadoop-2.6.5/etc/hadoop
export SPARK_MASTER_IP=pc1
export SPARK_WORKER_MEMORY=2g
export SPARK_EXECUTOR_MEMORY=2g
export SPARK_DRIVER_MEMORY=2g
export SPARK_WORKER_CORES=2
2、配置spark-defaults.conf
spark.eventLog.enabled true
spark.eventLog.dir hdfs://pc1:9000/historyserverforSpark
spark.yarn.historyServer.address pc1:18080
spark.history.fs.logDirectory hdfs://pc1:9000/historyserverforSpark
spark.serializer org.apache.spark.serializer.KryoSerializer
spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
3、使用scp -r /chenjie/spark-1.6.0-bin-hadoop2.6 root@pc2:/chenjie命令將spark資料夾拷貝給pc2 pc3同理
4、pc1上進入/chenjie/spark-1.6.0-bin-hadoop2.6/sbin目錄使用./start-all.sh命令啟動叢集
5、pc1上使用jps看到Master程式,pc2上看到Worker程式,pc3上看到Worker程式
6、使用http://192.168.153.131:8080/訪問spark看到兩個Worker結點
7、在pc1上進入【Hadoop】的/sbin目錄下使用start-dfs.sh啟動hdfs
8、http://192.168.153.131:50070訪問hadoop DataNode
9、啟動【Spark】的start-history-server.sh
我出現問題:
說明HDFS上沒有historyserverforSpark
在pc1上使用hadoop fs -mkdir /historyserverforSpark建立之
再重啟start-history-server.sh
使用18080埠訪問,能訪問則證明成功
10、以叢集方式啟動spark-shell
進入spark的bin目錄
./spark-shell
能夠計算wordcount說明叢集搭建成功。
在此過程中,我的spark-shell總是啟動不了,推測跟虛擬機器記憶體有關,於是將兩個worker改為1個,並將所有的配置檔案涉及worker記憶體分配的配置改為一致,然後成功
相關文章
- Spark 叢集搭建從零開始之1 Scala的安裝與配置Spark
- Spark 叢集搭建從零開始之2 Spark單機偽分散式安裝與配置Spark分散式
- Spark2.4.5叢集安裝與本地開發Spark
- 部署spark2.2叢集(standalone模式)Spark模式
- 從0到1搭建spark叢集---企業叢集搭建Spark
- 搭建spark on yarn 叢集SparkYarn
- Spark3.0.0叢集搭建Spark
- Hadoop 2.6 叢集搭建從零開始之3 Hadoop的安裝與配置(偽分散式環境)Hadoop分散式
- spark叢集的配置檔案Spark
- docker下,極速搭建spark叢集(含hdfs叢集)DockerSpark
- 從零搭建K8S測試叢集K8S
- Hadoop 2.6 叢集搭建從零開始之2 JDK1.8安裝HadoopJDK
- HADOOP SPARK 叢集環境搭建HadoopSpark
- 大資料Spark叢集模式配置大資料Spark模式
- Hadoop 2.6 叢集搭建從零開始之4 Hadoop的安裝與配置(完全分散式環境)Hadoop分散式
- spark之 spark 2.2.0 Standalone安裝、wordCount演示Spark
- 基於 ZooKeeper 搭建 Spark 高可用叢集Spark
- Spark3.0.1各種叢集模式搭建Spark模式
- CentOS6.5 安裝Spark叢集CentOSSpark
- Hadoop 叢集安裝與配置Hadoop
- Hadoop 2.6 叢集搭建從零開始之1 Ubuntu虛擬機器搭建HadoopUbuntu虛擬機
- 從零開始認識 SparkSpark
- 從零開始搭建高可用的k8s叢集K8S
- 實時計算框架:Spark叢集搭建與入門案例框架Spark
- spark學習筆記--叢集執行SparkSpark筆記
- 從零開始搭建Nginx和Tomcat的web叢集環境NginxTomcatWeb
- Hadoop叢集安裝配置Hadoop
- WAS叢集安裝配置過程
- Spark修煉之道(進階篇)——Spark入門到精通:第一節 Spark 1.5.0叢集搭建Spark
- Spark在Hadoop叢集上的配置(spark-1.1.0-bin-hadoop2.4)SparkHadoop
- elasticsearch叢集安裝(3臺)Elasticsearch
- 叢集搭建完成簡要測試叢集(效能)頻寬與IOPS
- 大資料叢集搭建 – 2. CDH叢集安裝 – NTP,MYSQL,nginx安裝大資料MySqlNginx
- spark叢集搭建整理之解決億級人群標籤問題Spark
- redis cluster 4.0.9 叢集安裝搭建Redis
- Spark開發-Standalone模式Spark模式
- Hadoop叢集安裝-CDH5(3臺伺服器叢集)HadoopH5伺服器
- 大資料叢集搭建 – 1. CDH叢集安裝 – 環境準備大資料