Spark開發-spark環境搭建
環境準備
master 192.168.18.140
slave1 192.168.18.141
slave2 192.168.18.142
slave3 192.168.18.143
hadoop 2.6
spark 1.6
scala 2.11
java 1.7
hadoop的安裝我就在這裡不介紹了,直接介紹spark的安裝。
1、先安裝Scala,這個和Java的安裝類似,需要配置好profile檔案
2、解壓spark安裝包,這裡我們直接進入spark的conf目錄裡面,將spark-env.sh.template檔案複製一份到spark-env.sh中, 使用命令是cp spark-env.sh.template spark-env.sh.修改spark-env.sh檔案
新增如下內容
export JAVA_HOME=/opt/jdk1.7.0_79
export SCALA_HOME=/opt/scala-2.11.4
export SPARK_MASTER_IP=192.168.18.140
export HADOOP_CONF_DIR=/opt/hadoop-2.6.5/etc/hadoop
export SPARK_WORKER_MEMORY=4g
export SPARK_EXECUTOR_MEMORY=1g
export SPARK_DRIVER_MEMORY=4G
export SPARK_WORKER_CORES=8
3、在conf目錄下面將spark-defaults.conf.template檔案複製一份到spark-defaults.conf。修改spark-defaults.conf中的內容,新增
spark.eventLog.enabled true
spark.eventLog.dir hdfs://192.168.18.140:9000/historySpark
spark.yarn.historyServer.address 192.168.18.140:18080
spark.history.fs.logDirectory hdfs://192.168.18.140:9000/historySpark
spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers=”one two three”
4、建立spark執行日誌的路徑 historySpark
hadoop fs -mkdir /historySpark
5、修改slaves檔案新增work節點
slave1
slave2
slave3
6、通過scp命令將spark的包拷貝到work節點上面
7、啟動Hadoop 這裡就不介紹了
8、啟動spark,進入spark的sbin目錄,用./start-all.sh命令啟動spark服務,在通過./start-history-server.sh啟動spark的檢視歷史日誌的服務
啟動以後我們可以通過瀏覽器來檢視spark的ui
http://192.168.18.140:8080/
http://192.168.18.140:18080/
9、測試spark叢集
進入bin目錄執行下面這個命令,計算圓周率的
[root@master bin]# ./spark-submit –class org.apache.spark.examples.SparkPi –master spark://192.168.18.140:7077 ../lib/spark-examples-1.6.3-hadoop2.6.0.jar 100
執行以後我們可以通過8080的埠檢視到執行的application
我們也可以從執行的日誌中看到計算出來的Pi
以上說明spark已經安裝成功了
相關文章
- Spark學習進度-Spark環境搭建&Spark shellSpark
- 如何基於Jupyter notebook搭建Spark叢集開發環境Spark開發環境
- Spark-2.3.0環境搭建安裝Spark
- Windows上搭建Standalone模式的Spark環境Windows模式Spark
- Spark程式設計環境搭建及WordCount例項Spark程式設計
- Hadoop 及Spark 分散式HA執行環境搭建HadoopSpark分散式
- Linux環境Spark安裝配置及使用LinuxSpark
- Flutter開發入門之開發環境搭建(VSCode搭建Flutter開發環境)Flutter開發環境VSCode
- Spark 環境問題記錄和解決方法Spark
- Spark 從零到開發(五)初識Spark SQLSparkSQL
- Spark面試題(七)——Spark程式開發調優Spark面試題
- 1 – 搭建開發環境開發環境
- Androdi開發環境搭建開發環境
- Cordova 開發環境搭建開發環境
- GeoServer開發環境搭建Server開發環境
- Qt開發環境搭建QT開發環境
- 前端開發環境搭建前端開發環境
- QEMU 開發環境搭建開發環境
- 搭建go開發環境Go開發環境
- JAVA開發環境搭建Java開發環境
- 搭建VUE開發環境Vue開發環境
- lua 開發環境搭建開發環境
- Theia 開發環境搭建開發環境
- rollup 開發環境搭建開發環境
- Linux搭建開發環境Linux開發環境
- Spark 從零到開發(四)單詞計數的三種環境實現Spark
- 在 mac 上建立 Python 的 Kafka 與 Spark 環境MacPythonKafkaSpark
- 深入淺出理解 Spark:環境部署與工作原理Spark
- WSL2+Ubuntu配置Java Maven Hadoop Spark環境UbuntuJavaMavenHadoopSpark
- IDEA開發Spark應用並提交本地Spark 2.1.0 standIdeaSpark
- ubuntu環境下搭建以太坊開發環境Ubuntu開發環境
- 搭建spark on yarn 叢集SparkYarn
- 搭建 Laravel + vuetify 開發環境LaravelVue開發環境
- 搭建vue的開發環境Vue開發環境
- GOLang開發環境搭建(Windows)Golang開發環境Windows
- TS(TypeScript)— 搭建開發環境TypeScript開發環境
- Mac 搭建 PHP 開發環境MacPHP開發環境
- Java開發-搭建hibernate環境Java
- Mac搭建Flutter開發環境MacFlutter開發環境