hadoop完全分散式環境搭建
以三臺虛擬機器為例
建立主機名和ip對映
sudo vi /etc/hosts
上傳到slave1和slave2
sudo scp -r /etc/hosts slave2:/etc/hosts
關閉防火牆
(master,slave1,slave2)
關閉防火牆:sudo service iptables stop
關閉防火牆自啟:sudo chkconfig iptables off
配置免密登入
(每臺虛擬機器上都要執行這四條語句)
ssh-keygen -t rsa
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
master
slave1(slave2)
ssh免密登入驗證
安裝JDK
建立自定義資料夾
mkdir apps(每臺虛擬機器都要建立)
上傳JDK檔案並解壓
解壓JDK檔案
tar -zxvf jdk-8u181-linux-x64.tar.gz -C /home/hadoop/apps
解壓完成更改配置檔案
sudo vi /etc/profile
在最後面增加
export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin
更新配置檔案
source /etc/profile
Java環境測試
java/javac
把Java上傳到slave1,slave2
scp -r jdk1.8.0_161/ slave1:/home/hadoop/apps
scp -r jdk1.8.0_161/ slave2:/home/hadoop/apps
把配置環境上傳到其他虛擬機器
scp -r /etc/profile slave1: /etc/
scp -r /etc/profile slave2: /etc/
在其他機器上做Java測試
hdfs安裝與配置
解壓hadoop
tar -xzvf hadoop-2.8.5.tar.gz -C /home/hadoop/apps
修改hadoop-env.sh
進入/home/hadoop/apps/hadoop-2.8.5/etc/hadoop
vi hadoop-env.sh
新增
export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_181
修改 core-site.xml
vi core-site.xml
fs.defaultFS
hdfs://master:9000
hadoop.tmp.dir
/home/hadoop/tmp
修改hdfs-site.xml
vi hdfs-site.xml
dfs.namenode.http-address master:50070 dfs.namenode.secondary.http-address master:50090 dfs.namenode.name.dir /home/hadoop/hdpdata/name/ dfs.datanode.data.dir /home/hadoop/hdpdata/data
修改slaves
sudo vi slaves
新增
slave1、slave2
(slaves檔案開啟後出現localhost的名稱這個預設是master節點的名稱,應該把它修改為master或者是你自己設定的主節點名稱,不然後續格式化,jps驗證時會出錯)
配置hadoop環境變數
sudo vi /etc/profile
新增
export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_181
export HADOOP_HOME=/home/hadoop/apps/hadoop-2.7.6
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
上傳到slave1,slave2
sudo scp -r /etc/profile slave2:/etc/profile
sudo scp -r /etc/profile slave1:/etc/profile
更新配置檔案
source /etc/profile
將hadoop上傳到其他主機
scp -r hadoop-2.7.6/ slave1:/home/hadoopapps/(此命令需要在/home/Hadoop/apps路徑下執行)
scp -r hadoop-2.7.6/ slave2:/home/hadoopapps/
格式化後設資料目錄
hadoop namenode –format(master節點做,其他節點不做)
格式化完成後啟動hdfs
start-dfs.sh(所有節點都做)
啟動之後jps驗證(這是正確的,如果master節點jps這四項顯示錯誤證明格式化出錯,namenode和datanode未出現的解決方法,點選這裡檢視)
下載安裝spark
解壓spark
tar xzvf spark-2.2.3-bin-hadoop2.7.tgz -C /home/hadoop/apps
spark叢集規劃
配置檔案修改
進入到解壓縮後的spark資料夾下的conf資料夾
複製模板檔案
配置環境變數
vi spark-env.sh (記得把路徑和地址改成自己的,腦子要時刻保持清醒!)
export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_161
export SPARK_MASTER_HOST=192.168.3.100
export SPARK_MASTER_PORT=7077
配置slaves
vi slaves
增加slave1,slave2
將master配置好的spark 拷貝到slave1,slave2(存放解壓縮檔案的路徑下做)
scp -r spark-2.2.3-bin-hadoop2.7/ slave1:/home/hadoop/apps
scp -r spark-2.2.3-bin-hadoop2.7/ slave2:/home/hadoop/apps
配置環境變數
sudo vi /etc/profile
增加
export SPARK_HOME=/home/hadoop/apps/spark-2.2.3-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
更新
source /etc/profile
把環境變數拷貝到其他主機
sudo scp –r /etc/profile slave1:/etc/profile
sudo scp –r /etc/profile slave2:/etc/profile
啟動與驗證
進入到spark資料夾下的conf資料夾
start-master.sh (啟動主節點)
start-slaves.sh (啟動從節點)
jps驗證
master
出現了master
slave1,slave2驗證
出現了woker
接下來網頁驗證
在網頁位址列輸入 master節點主機名:8080 進行檢視
如果無法檢視的話可以在主機的windows/system/divers/etc/hosts檔案下新增master主機的ip試試
相關文章
- Hadoop環境搭建(二)分散式Hadoop分散式
- Hadoop hdfs完全分散式搭建教程Hadoop分散式
- hadoop之旅2-centerOS7: 搭建分散式hadoop環境HadoopROS分散式
- Hadoop入門(一)之Hadoop偽分散式環境搭建Hadoop分散式
- Hadoop框架:叢集模式下分散式環境搭建Hadoop框架模式分散式
- hadoop3.1.0 HDFS快速搭建偽分散式環境Hadoop分散式
- Hadoop 及Spark 分散式HA執行環境搭建HadoopSpark分散式
- Hadoop3.x完全分散式搭建(詳細)Hadoop分散式
- Hbase偽分散式環境搭建分散式
- Hadoop完全分散式叢集配置Hadoop分散式
- [Hadoop踩坑]叢集分散式環境配置Hadoop分散式
- Hadoop2.7.5環境搭建Hadoop
- Hadoop+hive環境搭建HadoopHive
- Zookeeper — 本地完全分散式 搭建分散式
- Hbase完全分散式的搭建分散式
- Hadoop 系列(四)—— Hadoop 開發環境搭建Hadoop開發環境
- centOS 7-Hadoop3.3.0完全分散式部署CentOSHadoop分散式
- Hadoop--HDFS完全分散式(簡單版)Hadoop分散式
- hadoop分散式叢集搭建Hadoop分散式
- 搭建本地執行Hadoop環境Hadoop
- Hadoop 基礎之搭建環境Hadoop
- 完全分散式模式hadoop叢集安裝與配置分散式模式Hadoop
- Hadoop3.0完全分散式叢集安裝部署Hadoop分散式
- Hadoop分散式叢集搭建_1Hadoop分散式
- 【Hadoop】:Windows下使用IDEA搭建Hadoop開發環境HadoopWindowsIdea開發環境
- mac搭建hadoop開發環境(二)MacHadoop開發環境
- 虛擬機器裝Hadoop叢集完全分散式虛擬機Hadoop分散式
- OAuth2.0分散式系統環境搭建OAuth分散式
- 史上最詳細的Hadoop環境搭建Hadoop
- VSCode+Maven+Hadoop開發環境搭建VSCodeMavenHadoop開發環境
- 分散式基礎&專案環境搭建_學習筆記分散式筆記
- hadoop之旅7-centerOS7 : Hive環境搭建HadoopROSHive
- hadoop之旅10-centerOS7 : Flume環境搭建HadoopROS
- hadoop之旅1-centerOS7: 搭建java環境HadoopROSJava
- Hadoop叢集之 ZooKeeper和Hbase環境搭建Hadoop
- 大資料之Hadoop偽分散式的搭建大資料Hadoop分散式
- Hadoop HDFS 3.3.1分散式儲存搭建Hadoop分散式
- hadoop叢集搭建——單節點(偽分散式)Hadoop分散式