虛擬機器Hadoop叢集搭建5安裝Hadoop
部分圖片來源於黑馬程式設計師
第二步:修改配置檔案(注意所有配置檔案編碼都要是utf-8)
用ultraEdit遠端編輯
<configuration>
<!-- 指定叢集的檔案系統型別:分散式檔案系統 -->
<property>
<name>fs.default.name</name>
<value>hdfs://node01:8020</value>
</property>
<!-- 指定臨時檔案儲存目錄 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/export/servers/hadoop-2.10.1/hadoopDatas/tempDatas</value>
</property>
<!-- 緩衝區大小,實際工作中根據伺服器效能動態調整 -->
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
<!-- 開啟hdfs的垃圾桶機制,刪除掉的資料可以從垃圾桶中回收,單位分鐘 -->
<property>
<name>fs.trash.interval</name>
<value>10080</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:50090</value>
</property>
<!-- 指定namenode的訪問地址和埠 -->
<property>
<name>dfs.namenode.http-address</name>
<value>node01:50070</value>
</property>
<!-- 指定namenode後設資料的存放位置 ,指定了兩個位置-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas,file:///export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas2</value>
</property>
<!-- 定義dataNode資料儲存的節點位置,實際工作中,一般先確定磁碟的掛載目錄,然後多個目錄用,進行分割 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas,file:///export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas2</value>
</property>
<!-- 指定namenode日誌檔案的存放目錄 -->
<property>
<name>dfs.namenode.edits.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/nn/edits</value>
</property>
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/snn/name</value>
</property>
<property>
<name>dfs.namenode.checkpoint.edits.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/dfs/snn/edits</value>
</property>
<!-- 檔案切片的副本個數-->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!-- 設定HDFS的檔案許可權-->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<!-- 設定一個檔案切片的大小:128M-->
<property>
<name>dfs.blocksize</name>
<value>134217728</value>
</property>
</configuration>
hadoop-env.sh
新增
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.262.b10-0.el7_8.x86_64
```修改mapred-site.xml
<configuration>
<!-- 指定分散式計算使用的框架是yarn -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- 開啟MapReduce小任務模式 -->
<property>
<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
</property>
<!-- 設定歷史任務的主機和埠 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>node01:10020</value>
</property>
<!-- 設定網頁訪問歷史任務的主機和埠 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>node01:19888</value>
</property>
</configuration>
配置yarn-site.xml
<configuration>
<!-- 配置yarn主節點的位置 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node01</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 開啟日誌聚合功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 設定聚合日誌在hdfs上的儲存時間 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
<!-- 設定yarn叢集的記憶體分配方案 -->
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>20480</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>2048</value>
</property>
<property>
<name>yarn.nodemanager.vmem-pmem-ratio</name>
<value>2.1</value>
</property>
</configuration>
mapred-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.262.b10-0.el7_8.x86_64
slaves檔案
node01
node02
node03
三臺建立目錄
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas2
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas2
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/nn/edits
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/snn/name
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/dfs/snn/edits
拷貝hadoop到三臺虛擬機器
scp -r hadoop-2.10.1 node02:$PWD
scp -r hadoop-2.10.1 node03:$PWD
配置環境變數
#Hadoop environment
export HADOOP_HOME=/export/servers/hadoop-2.10.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
相關文章
- Hadoop叢集--linux虛擬機器Hadoop安裝與配置、克隆虛擬機器HadoopLinux虛擬機
- 虛擬機器裝Hadoop叢集完全分散式虛擬機Hadoop分散式
- Hadoop叢集搭建--虛擬機器互相ping通Hadoop虛擬機
- Hadoop 2.6 叢集搭建從零開始之1 Ubuntu虛擬機器搭建HadoopUbuntu虛擬機
- Hadoop叢集搭建Hadoop
- Hadoop搭建叢集Hadoop
- 【Hadoop】大資料安裝部署之虛擬機器的安裝Hadoop大資料虛擬機
- Hadoop叢集安裝-CDH5(5臺伺服器叢集)HadoopH5伺服器
- hadoop叢集篇--從0到1搭建hadoop叢集Hadoop
- 4.4 Hadoop叢集搭建Hadoop
- Hadoop叢集搭建(一)Hadoop
- 安裝 Hadoop:設定單節點 Hadoop 叢集Hadoop
- Hadoop叢集安裝-CDH5(3臺伺服器叢集)HadoopH5伺服器
- hadoop分散式叢集搭建Hadoop分散式
- Hadoop叢集搭建文件Hadoop
- hadoop叢集環境搭建Hadoop
- hadoop2.2.0叢集搭建Hadoop
- Hadoop HA叢集簡單搭建Hadoop
- HADOOP SPARK 叢集環境搭建HadoopSpark
- Hadoop-2.7.4 叢集快速搭建Hadoop
- Hadoop分散式叢集搭建_1Hadoop分散式
- hadoop偽分散式叢集的安裝(不是單機版)Hadoop分散式
- 超詳細hadoop叢集伺服器安裝配置教程Hadoop伺服器
- 在Ubuntu 18.04.1上安裝Hadoop叢集UbuntuHadoop
- hadoop叢集內lzo的安裝與配置Hadoop
- 分散式Hadoop1.2.1叢集的安裝分散式Hadoop
- Ganglia監控Hadoop叢集的安裝部署Hadoop
- hadoop叢集多節點安裝詳解Hadoop
- FreeBSD下安裝配置Hadoop叢集(三)Hadoop
- Hadoop開發第2期---虛擬機器中搭建LinuxHadoop虛擬機Linux
- Hadoop叢集機器的hosts檔案配置Hadoop
- Hadoop叢集機器的SSH認證配置Hadoop
- hadoop-2.5.0-cdh5.3.6叢集搭建HadoopH5
- 大資料7.1 - hadoop叢集搭建大資料Hadoop
- 從零自學Hadoop(06):叢集搭建Hadoop
- 搭建5個節點的hadoop叢集環境(CDH5)HadoopH5
- Hadoop安裝後的叢集基準測試Hadoop
- Hadoop叢集部署安裝Hadoop