單個虛擬機器安裝spark
一、下載解壓
(1)下載壓縮檔案到/opt/software/目錄下
https://archive.apache.org/dist/spark/spark-2.4.4/spark-2.4.4-bin-hadoop2.6.tgz
[root@nodefour install]# cd /opt/software/
[root@nodefour software]# ll
總用量 2549868
-rw-r--r-- 1 root root 412461182 12月 21 14:02 apache-phoenix-4.14.0-cdh5.14.2-bin.tar.gz
-rw-r--r-- 1 root root 433895552 12月 8 14:59 hadoop-2.6.0-cdh5.14.2.tar.gz
-rw-r--r-- 1 root root 267038262 12月 17 09:10 hbase-1.2.0-cdh5.14.2.tar.gz
-rw-r--r-- 1 root root 91 12月 14 15:08 jd.txt
-rw-r--r-- 1 root root 42136632 12月 24 16:27 kafka_2.11-0.11.0.2.gz
-rw-r--r-- 1 root root 203728858 1月 4 00:28 spark-2.2.0-bin-hadoop2.7.tgz
-rw-r--r-- 1 root root 228065807 12月 24 16:27 spark-2.4.4-bin-hadoop2.6.tgz
-rw-r--r-- 1 root root 30742669 12月 21 11:25 sqoop-1.4.6-cdh5.14.2.tar.gz
-rw-r--r-- 1 root root 992975720 12月 12 17:32 zeppelin-0.8.1-bin-all.tgz
(2)解壓到資料夾/opt/install/
[root@nodefour software]# tar -zxf spark-2.4.4-bin-hadoop2.6.tgz -C /opt/install/
[root@nodefour software]# cd /opt/install/
[root@nodefour install]# ll
總用量 12
drwxr-xr-x 18 root root 4096 12月 24 10:09 hadoop
lrwxrwxrwx 1 root root 22 12月 17 09:15 hbase -> hbase-1.2.0-cdh5.14.2/
drwxr-xr-x 32 1106 4001 4096 12月 20 15:28 hbase-1.2.0-cdh5.14.2
lrwxrwxrwx 1 root root 34 12月 8 09:59 hive -> /opt/install/hive-1.1.0-cdh5.14.2/
drwxr-xr-x 12 1106 4001 209 12月 10 10:26 hive-1.1.0-cdh5.14.2
drwxr-xr-x 13 1000 1000 211 8月 28 2019 spark-2.4.4-bin-hadoop2.6
lrwxrwxrwx 1 root root 35 12月 21 11:29 sqoop -> /opt/install/sqoop-1.4.6-cdh5.14.2/
drwxr-xr-x 10 root root 4096 3月 28 2018 sqoop-1.4.6-cdh5.14.2
drwxr-xr-x 12 503 wheel 223 12月 14 14:51 zeppelin-0.8.1-bin-all
drwxr-xr-x 4 root root 51 11月 19 15:09 zookeeper
(3)設定軟連線
[root@nodefour install]# ln -s spark-2.4.4-bin-hadoop2.6/ spark
[root@nodefour install]# ll
總用量 12
drwxr-xr-x 18 root root 4096 12月 24 10:09 hadoop
lrwxrwxrwx 1 root root 22 12月 17 09:15 hbase -> hbase-1.2.0-cdh5.14.2/
drwxr-xr-x 32 1106 4001 4096 12月 20 15:28 hbase-1.2.0-cdh5.14.2
lrwxrwxrwx 1 root root 34 12月 8 09:59 hive -> /opt/install/hive-1.1.0-cdh5.14.2/
drwxr-xr-x 12 1106 4001 209 12月 10 10:26 hive-1.1.0-cdh5.14.2
lrwxrwxrwx 1 root root 26 1月 4 00:29 spark -> spark-2.4.4-bin-hadoop2.6/
drwxr-xr-x 13 1000 1000 211 8月 28 2019 spark-2.4.4-bin-hadoop2.6
lrwxrwxrwx 1 root root 35 12月 21 11:29 sqoop -> /opt/install/sqoop-1.4.6-cdh5.14.2/
drwxr-xr-x 10 root root 4096 3月 28 2018 sqoop-1.4.6-cdh5.14.2
drwxr-xr-x 12 503 wheel 223 12月 14 14:51 zeppelin-0.8.1-bin-all
drwxr-xr-x 4 root root 51 11月 19 15:09 zookeeper
二、配置環境變數
[root@nodefour install]# cd
[root@nodefour ~]# vi /etc/profile
內容如下
export SPARK_HOME=/opt/install/spark-2.4.4-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH
使配置生效
[root@nodefour ~]# source /etc/profile
三、配置其他檔案
(1)進入spark檔案目錄下
[root@nodefour ~]# cd $SPARK_HOME
(2)檢視目錄下檔案
[root@nodefour spark-2.4.4-bin-hadoop2.6]# ll
總用量 104
drwxr-xr-x 2 1000 1000 4096 8月 28 2019 bin
drwxr-xr-x 2 1000 1000 230 8月 28 2019 conf
drwxr-xr-x 5 1000 1000 50 8月 28 2019 data
drwxr-xr-x 4 1000 1000 29 8月 28 2019 examples
drwxr-xr-x 2 1000 1000 12288 8月 28 2019 jars
drwxr-xr-x 4 1000 1000 38 8月 28 2019 kubernetes
-rw-r--r-- 1 1000 1000 21316 8月 28 2019 LICENSE
drwxr-xr-x 2 1000 1000 4096 8月 28 2019 licenses
-rw-r--r-- 1 1000 1000 42919 8月 28 2019 NOTICE
drwxr-xr-x 7 1000 1000 275 8月 28 2019 python
drwxr-xr-x 3 1000 1000 17 8月 28 2019 R
-rw-r--r-- 1 1000 1000 3952 8月 28 2019 README.md
-rw-r--r-- 1 1000 1000 164 8月 28 2019 RELEASE
drwxr-xr-x 2 1000 1000 4096 8月 28 2019 sbin
drwxr-xr-x 2 1000 1000 42 8月 28 2019 yarn
(3)重新命名檔案spark-env.sh.template為spark-env.sh
[root@nodefour spark-2.4.4-bin-hadoop2.6]# cp ./conf/spark-env.sh.template ./conf/spark-env.sh
[root@nodefour spark-2.4.4-bin-hadoop2.6]# vi ./conf/spark-env.sh
(4)內容如下(jdk和主機名換成自己的)
export JAVA_HOME=/opt/install/jdk
export HADOOP_HOME=/opt/install/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
#指定 master 的主機
export SPARK_MASTER_HOST=hadoop101
#指定 master 的埠
export SPARK_MASTER_PORT=7077
四、啟動
(1)首先啟動了Hadoop(hdfs和yarn)
(2)啟動spark叢集
[root@nodefour spark-2.4.4-bin-hadoop2.6]# sbin/start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /opt/install/spark-2.4.4-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.master.Master-1-nodefour.out
localhost: starting org.apache.spark.deploy.worker.Worker, logging to /opt/install/spark-2.4.4-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-nodefour.out
(3)檢視狀態,是否有Master和Worker程式
[root@nodefour spark-2.4.4-bin-hadoop2.6]# jps
2608 Master
2720 Jps
2161 ResourceManager
2258 NodeManager
2674 Worker
1829 DataNode
1976 SecondaryNameNode
1740 NameNode
(4)啟動 spark-shell 測試 scala 互動式環境
[root@nodefour spark-2.4.4-bin-hadoop2.6]# spark-shell --master spark://192.168.202.204:7077
21/01/04 00:40:05 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
Spark context Web UI available at http://nodefour:4040
Spark context available as 'sc' (master = spark://192.168.202.204:7077, app id = app-20210104004019-0000).
Spark session available as 'spark'.
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.4.4
/_/
Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_241)
Type in expressions to have them evaluated.
Type :help for more information.
scala>
可以通過瀏覽器訪問(使用自己的主機對映名稱或ip地址)
http://192.168.202.204:8080
相關文章
- 安裝虛擬機器虛擬機
- LEDE 虛擬機器安裝虛擬機
- 虛擬機器安裝ubuntu虛擬機Ubuntu
- ubuntu虛擬機器安裝Ubuntu虛擬機
- xen安裝半虛擬化虛擬機器虛擬機
- CentOS 7 安裝虛擬機器CentOS虛擬機
- 使用虛擬機器安裝Kail虛擬機AI
- kvm 安裝 windows 虛擬機器Windows虛擬機
- Mac 安裝Windows虛擬機器MacWindows虛擬機
- MacOS安裝虛擬機器教程Mac虛擬機
- centos中安裝虛擬機器CentOS虛擬機
- 虛擬機器kali安裝vmtools虛擬機
- Centos7虛擬機器安裝CentOS虛擬機
- 在虛擬機器中安裝ftp虛擬機FTP
- 虛擬機器Tomcat的安裝虛擬機Tomcat
- Linux 安裝 KVM 虛擬機器Linux虛擬機
- 在虛擬機器安裝OpenSuse Tumbleweed虛擬機
- 虛擬機器安裝rac傻瓜教程虛擬機
- CentOS 7虛擬機器安裝教程CentOS虛擬機
- 虛擬機器安裝 gho系統虛擬機
- win10安裝xp虛擬機器安裝教程_win10安裝xp虛擬機器詳細步驟Win10虛擬機
- Homestead 虛擬機器安裝步驟虛擬機
- 【虛擬機器】VMware-VMware Tool安裝虛擬機
- linux 虛擬機器下 安裝redisLinux虛擬機Redis
- 虛擬機器Centos安裝docker小記虛擬機CentOSDocker
- kvm之三:本地安裝虛擬機器虛擬機
- 虛擬機器安裝 PHPHub5(一)虛擬機PHP
- 在 VMware workstation 安裝 CentOS 虛擬機器CentOS虛擬機
- Ubuntu下如何安裝VMWave虛擬機器?Ubuntu虛擬機
- 安裝VM虛擬機器 centos7虛擬機CentOS
- VM虛擬機器Ubuntu下安裝VMTools虛擬機Ubuntu
- 在安卓虛擬機器中安裝apk安卓虛擬機APK
- 虛擬機器 Centos5.5 安裝oracle虛擬機CentOSOracle
- VMware虛擬機器安裝Centos-7.9虛擬機CentOS
- VMware Workstation17虛擬機器安裝虛擬機
- NOI Linux 虛擬機器安裝教程Linux虛擬機
- 安裝虛擬機器和CentOS系統虛擬機CentOS
- 在虛擬機器CentOS中安裝docker虛擬機CentOSDocker