虛擬機器Hadoop叢集搭建5安裝Hadoop
部分圖片來源於黑馬程式設計師
第二步:修改配置檔案(注意所有配置檔案編碼都要是utf-8)
用ultraEdit遠端編輯
<configuration>
<!-- 指定叢集的檔案系統型別:分散式檔案系統 -->
<property>
<name>fs.default.name</name>
<value>hdfs://node01:8020</value>
</property>
<!-- 指定臨時檔案儲存目錄 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/export/servers/hadoop-2.10.1/hadoopDatas/tempDatas</value>
</property>
<!-- 緩衝區大小,實際工作中根據伺服器效能動態調整 -->
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
<!-- 開啟hdfs的垃圾桶機制,刪除掉的資料可以從垃圾桶中回收,單位分鐘 -->
<property>
<name>fs.trash.interval</name>
<value>10080</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:50090</value>
</property>
<!-- 指定namenode的訪問地址和埠 -->
<property>
<name>dfs.namenode.http-address</name>
<value>node01:50070</value>
</property>
<!-- 指定namenode後設資料的存放位置 ,指定了兩個位置-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas,file:///export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas2</value>
</property>
<!-- 定義dataNode資料儲存的節點位置,實際工作中,一般先確定磁碟的掛載目錄,然後多個目錄用,進行分割 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas,file:///export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas2</value>
</property>
<!-- 指定namenode日誌檔案的存放目錄 -->
<property>
<name>dfs.namenode.edits.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/nn/edits</value>
</property>
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/snn/name</value>
</property>
<property>
<name>dfs.namenode.checkpoint.edits.dir</name>
<value>file:///export/servers/hadoop-2.10.1/hadoopDatas/dfs/snn/edits</value>
</property>
<!-- 檔案切片的副本個數-->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!-- 設定HDFS的檔案許可權-->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<!-- 設定一個檔案切片的大小:128M-->
<property>
<name>dfs.blocksize</name>
<value>134217728</value>
</property>
</configuration>
hadoop-env.sh
新增
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.262.b10-0.el7_8.x86_64
```修改mapred-site.xml
<configuration>
<!-- 指定分散式計算使用的框架是yarn -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- 開啟MapReduce小任務模式 -->
<property>
<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
</property>
<!-- 設定歷史任務的主機和埠 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>node01:10020</value>
</property>
<!-- 設定網頁訪問歷史任務的主機和埠 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>node01:19888</value>
</property>
</configuration>
配置yarn-site.xml
<configuration>
<!-- 配置yarn主節點的位置 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node01</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 開啟日誌聚合功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 設定聚合日誌在hdfs上的儲存時間 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
<!-- 設定yarn叢集的記憶體分配方案 -->
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>20480</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>2048</value>
</property>
<property>
<name>yarn.nodemanager.vmem-pmem-ratio</name>
<value>2.1</value>
</property>
</configuration>
mapred-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.262.b10-0.el7_8.x86_64
slaves檔案
node01
node02
node03
三臺建立目錄
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/namenodeDatas2
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/datanodeDatas2
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/nn/edits
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/snn/name
mkdir -p /export/servers/hadoop-2.10.1/hadoopDatas/dfs/snn/edits
拷貝hadoop到三臺虛擬機器
scp -r hadoop-2.10.1 node02:$PWD
scp -r hadoop-2.10.1 node03:$PWD
配置環境變數
#Hadoop environment
export HADOOP_HOME=/export/servers/hadoop-2.10.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
相關文章
- Hadoop叢集--linux虛擬機器Hadoop安裝與配置、克隆虛擬機器HadoopLinux虛擬機
- Hadoop叢集搭建--虛擬機器互相ping通Hadoop虛擬機
- 虛擬機器裝Hadoop叢集完全分散式虛擬機Hadoop分散式
- Hadoop搭建叢集Hadoop
- Hadoop叢集搭建Hadoop
- 安裝 Hadoop:設定單節點 Hadoop 叢集Hadoop
- 【Hadoop】大資料安裝部署之虛擬機器的安裝Hadoop大資料虛擬機
- 4.4 Hadoop叢集搭建Hadoop
- Hadoop叢集搭建(一)Hadoop
- hadoop分散式叢集搭建Hadoop分散式
- Hadoop詳細安裝步驟,附帶安裝完的虛擬機器。Hadoop虛擬機
- 在Ubuntu 18.04.1上安裝Hadoop叢集UbuntuHadoop
- Hadoop分散式叢集搭建_1Hadoop分散式
- Hadoop HA叢集簡單搭建Hadoop
- 超詳細hadoop叢集伺服器安裝配置教程Hadoop伺服器
- hadoop偽分散式叢集的安裝(不是單機版)Hadoop分散式
- 大資料7.1 - hadoop叢集搭建大資料Hadoop
- hadoop-2.5.0-cdh5.3.6叢集搭建HadoopH5
- hadoop之旅3-centerOS7: 搭建hadoop免密叢集啟動HadoopROS
- BigData~03:Hadoop05 ~ HA叢集搭建Hadoop
- 大資料平臺Hadoop叢集搭建大資料Hadoop
- 基於 ZooKeeper 搭建 Hadoop 高可用叢集Hadoop
- 基於kerberos的hadoop安全叢集搭建ROSHadoop
- 【教程】手把手教你如何搭建Hadoop單機偽叢集Hadoop
- 五行命令使用docker搭建hadoop叢集DockerHadoop
- Hadoop叢集之 ZooKeeper和Hbase環境搭建Hadoop
- hadoop叢集搭建及程式設計實踐Hadoop程式設計
- Hadoop叢集搭建之關閉防火牆(一)Hadoop防火牆
- hadoop叢集搭建,CentOS7克隆HadoopCentOS
- hadoop叢集搭建——單節點(偽分散式)Hadoop分散式
- Centos mini系統下的Hadoop叢集搭建CentOSHadoop
- (一)hadoop叢集搭建——1.4hdfs的操作Hadoop
- 雲主機centos7搭建基於docker的hadoop叢集CentOSDockerHadoop
- 安裝虛擬機器虛擬機
- Hadoop單機版安裝Hadoop
- Linux 環境下搭建Hadoop叢集(全分佈)LinuxHadoop
- Ubuntu上搭建Hadoop叢集環境的步驟UbuntuHadoop
- Hadoop框架:叢集模式下分散式環境搭建Hadoop框架模式分散式