Hadoop安裝配置:使用cloudrea
使用cloudrea的rpm源,安裝Hadoop
環境為:
192.168.255.132 test01.linuxjcq.com =》master
192.168.255.133 test02.linuxjcq.com =》slave01
192.168.255.134 test03.linuxjcq.com =》slave02
每臺主機中的/etc/hosts檔案有以上配置和基本的java環境設定,使用的java包為openjdk
1. 安裝cloudrea
wget -P /usr/local/src
yum localinstall --nogpgcheck /usr/local/src/cdh3-repository-1.0-1.noarch.rpm
rpm --import
2. 安裝hadoop包
yum install -y hadoop-0.20 hadoop-0.20-namenode hadoop-0.20-secondarynamenode hadoop-0.20-datanode hadoop-0.20-jobtracker hadoop-0.20-tasktracker hadoop-0.20-source
將hadoop按照各個部分的功能分為了
source:hadoop-0.20-source
base:hadoop-0.20
namenode:hadoop-0.20-namenode
secondnamenode:hadoop-0.20-secondarynamenode
jobtracker:hadoop-0.20-jobtracker
tasktracker:hadoop-0.20-tasktracker
同時會預設新增兩個使用者和一個組
hdfs使用者用於操作hdfs檔案系統
mapred使用者用於mapreduce工作
這兩個使用者都屬於hadoop組,不存在hadoop使用者。
以上1,2在每一個節點都需進行操作
3. 配置master節點
a. 建立配置
cloudrea配置可以透過alternatives工具
cp -r /etc/Hadoop-0.20/conf.empty /etc/hadoop-0.20/conf.my_cluster
複製配置檔案
alternatives --display hadoop-0.20-conf
alternatives --install /etc/hadoop-0.20/conf
hadoop-0.20-conf /etc/hadoop-0.20/conf.my_cluster 50
檢視配置,並安裝新的配置
alternatives --display hadoop-0.20-conf
hadoop-0.20-conf - status is auto.
link currently points to /etc/hadoop-0.20/conf.my_cluster
/etc/hadoop-0.20/conf.empty - priority 10
/etc/hadoop-0.20/conf.my_cluster - priority 50
Current `best' version is /etc/hadoop-0.20/conf.my_cluster.
確認安裝了新配置
b. 設定java主目錄
vim hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0.x86_64
JAVA_HOME為JAVA的主目錄,可以使用OPENJDK
c. 設定core-site.xml
vim core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://test01.linuxjcq.com:9000/</value>
</property>
</configuration>
使用這個訪問hdfs檔案系統
d. 設定hdfs-site.xml
vim /etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/data/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/data/hadoop/hdfs/data</value>
</property>
</configuration>
e. 設定mapred-site.xml
<configuration>
<property>
<name>mapred.system.dir</name>
<value>/mapred/system</value>
</property>
<property>
<name>mapred.local.dir</name>
<value>/data/hadoop/mapred/local</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>test01.linuxjcq.com:9001</value>
</property>
</configuration>
f. 設定secondnamenode和datanode
secondnamenode
vim /etc/hadoop/masters
test02.linuxjcq.com
datanode
test02.linuxjcq.com
test03.linuxjcq.com
g. 建立相應的目錄
建立dfs.name.dir和dfs.data.dir
mkdir -p /data/hadoop/hdfs/{name,data}
建立mapred.local.dir
mkdir -p /data/hadoop/mapred/local
修改dfs.name.dir和dfs.data.dir擁有者為hdfs,組擁有者為hadoop,目錄許可權為0700
chown -R hdfs:hadoop /data/hadoop/hdfs/{name,data}
chmod -R 0700 /data/hadoop/hdfs/{name,data}
修改mapred.local.dir擁有者為mapred,組擁有者為hadoop,目錄許可權為755
chown -R mapred:hadoop /data/hadoop/mapred/local
chmod -R 0755 /data/hadoop/mapred/local
4. 配置secondnamenode和datanode節點
重複3中的步驟a-f
5. 在master節點上格式化namenode
sudo -u hdfs hadoop namenode -format
6. 啟動節點
master啟動namenode
service Hadoop-0.20-namenode start
secondnamenode啟動
service hadoop-0.20-secondnamenode start
啟動各個資料節點
service hadoop-0.20-datanode start
7. 建立hdfs的/tmp目錄和mapred.system.dir
sudo -u hdfs hadoop fs -mkdir /mapred/system
sudo -u hdfs hadoop fs -chown mapred:hadoop /mapred/system
sudo -u hdfs hadoop fs -chmod 700 /mapred/system
mapred.system.dir需要在jobtracker啟動前建立
sudo -u hdfs hadoop dfs -mkdir /tmp
sudo -u hdfs hadoop dfs -chmod -R 1777 /tmp
8. 開啟mapreduce
在datanode節點上執行
service hadoop-0.20-tasktracker start
在namenode節點上啟動jobtracker
service hadoop-0.20-jobtasker start
9. 設定開機啟動
namenode節點:需要啟動的為namenode何jobtracker,關閉其他的服務
chkconfig hadoop-0.20-namenode on
chkconfig hadoop-0.20-jobtracker on
chkconfig hadoop-0.20-secondarynamenode off
chkconfig hadoop-0.20-tasktracker off
chkconfig hadoop-0.20-datanode off
datanode節點:需要啟動datanode和tasktracker
chkconfig hadoop-0.20-namenode off
chkconfig hadoop-0.20-jobtracker off
chkconfig hadoop-0.20-secondarynamenode off
chkconfig hadoop-0.20-tasktracker on
chkconfig hadoop-0.20-datanode on
secondarynamenode節點:需要啟動secondarynamenode
chkconfig hadoop-0.20-secondarynamenode on
說明:
這些hadoop包作為獨立的服務啟動,不需要透過ssh,也可以配置ssh,透過使用start-all.sh和stop-all.sh來管理服務。
環境為:
192.168.255.132 test01.linuxjcq.com =》master
192.168.255.133 test02.linuxjcq.com =》slave01
192.168.255.134 test03.linuxjcq.com =》slave02
每臺主機中的/etc/hosts檔案有以上配置和基本的java環境設定,使用的java包為openjdk
1. 安裝cloudrea
wget -P /usr/local/src
yum localinstall --nogpgcheck /usr/local/src/cdh3-repository-1.0-1.noarch.rpm
rpm --import
2. 安裝hadoop包
yum install -y hadoop-0.20 hadoop-0.20-namenode hadoop-0.20-secondarynamenode hadoop-0.20-datanode hadoop-0.20-jobtracker hadoop-0.20-tasktracker hadoop-0.20-source
將hadoop按照各個部分的功能分為了
source:hadoop-0.20-source
base:hadoop-0.20
namenode:hadoop-0.20-namenode
secondnamenode:hadoop-0.20-secondarynamenode
jobtracker:hadoop-0.20-jobtracker
tasktracker:hadoop-0.20-tasktracker
同時會預設新增兩個使用者和一個組
hdfs使用者用於操作hdfs檔案系統
mapred使用者用於mapreduce工作
這兩個使用者都屬於hadoop組,不存在hadoop使用者。
以上1,2在每一個節點都需進行操作
3. 配置master節點
a. 建立配置
cloudrea配置可以透過alternatives工具
cp -r /etc/Hadoop-0.20/conf.empty /etc/hadoop-0.20/conf.my_cluster
複製配置檔案
alternatives --display hadoop-0.20-conf
alternatives --install /etc/hadoop-0.20/conf
hadoop-0.20-conf /etc/hadoop-0.20/conf.my_cluster 50
檢視配置,並安裝新的配置
alternatives --display hadoop-0.20-conf
hadoop-0.20-conf - status is auto.
link currently points to /etc/hadoop-0.20/conf.my_cluster
/etc/hadoop-0.20/conf.empty - priority 10
/etc/hadoop-0.20/conf.my_cluster - priority 50
Current `best' version is /etc/hadoop-0.20/conf.my_cluster.
確認安裝了新配置
b. 設定java主目錄
vim hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0.x86_64
JAVA_HOME為JAVA的主目錄,可以使用OPENJDK
c. 設定core-site.xml
vim core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://test01.linuxjcq.com:9000/</value>
</property>
</configuration>
使用這個訪問hdfs檔案系統
d. 設定hdfs-site.xml
vim /etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/data/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/data/hadoop/hdfs/data</value>
</property>
</configuration>
e. 設定mapred-site.xml
<configuration>
<property>
<name>mapred.system.dir</name>
<value>/mapred/system</value>
</property>
<property>
<name>mapred.local.dir</name>
<value>/data/hadoop/mapred/local</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>test01.linuxjcq.com:9001</value>
</property>
</configuration>
f. 設定secondnamenode和datanode
secondnamenode
vim /etc/hadoop/masters
test02.linuxjcq.com
datanode
test02.linuxjcq.com
test03.linuxjcq.com
g. 建立相應的目錄
建立dfs.name.dir和dfs.data.dir
mkdir -p /data/hadoop/hdfs/{name,data}
建立mapred.local.dir
mkdir -p /data/hadoop/mapred/local
修改dfs.name.dir和dfs.data.dir擁有者為hdfs,組擁有者為hadoop,目錄許可權為0700
chown -R hdfs:hadoop /data/hadoop/hdfs/{name,data}
chmod -R 0700 /data/hadoop/hdfs/{name,data}
修改mapred.local.dir擁有者為mapred,組擁有者為hadoop,目錄許可權為755
chown -R mapred:hadoop /data/hadoop/mapred/local
chmod -R 0755 /data/hadoop/mapred/local
4. 配置secondnamenode和datanode節點
重複3中的步驟a-f
5. 在master節點上格式化namenode
sudo -u hdfs hadoop namenode -format
6. 啟動節點
master啟動namenode
service Hadoop-0.20-namenode start
secondnamenode啟動
service hadoop-0.20-secondnamenode start
啟動各個資料節點
service hadoop-0.20-datanode start
7. 建立hdfs的/tmp目錄和mapred.system.dir
sudo -u hdfs hadoop fs -mkdir /mapred/system
sudo -u hdfs hadoop fs -chown mapred:hadoop /mapred/system
sudo -u hdfs hadoop fs -chmod 700 /mapred/system
mapred.system.dir需要在jobtracker啟動前建立
sudo -u hdfs hadoop dfs -mkdir /tmp
sudo -u hdfs hadoop dfs -chmod -R 1777 /tmp
8. 開啟mapreduce
在datanode節點上執行
service hadoop-0.20-tasktracker start
在namenode節點上啟動jobtracker
service hadoop-0.20-jobtasker start
9. 設定開機啟動
namenode節點:需要啟動的為namenode何jobtracker,關閉其他的服務
chkconfig hadoop-0.20-namenode on
chkconfig hadoop-0.20-jobtracker on
chkconfig hadoop-0.20-secondarynamenode off
chkconfig hadoop-0.20-tasktracker off
chkconfig hadoop-0.20-datanode off
datanode節點:需要啟動datanode和tasktracker
chkconfig hadoop-0.20-namenode off
chkconfig hadoop-0.20-jobtracker off
chkconfig hadoop-0.20-secondarynamenode off
chkconfig hadoop-0.20-tasktracker on
chkconfig hadoop-0.20-datanode on
secondarynamenode節點:需要啟動secondarynamenode
chkconfig hadoop-0.20-secondarynamenode on
說明:
這些hadoop包作為獨立的服務啟動,不需要透過ssh,也可以配置ssh,透過使用start-all.sh和stop-all.sh來管理服務。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/9034054/viewspace-2056720/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- SSH免密登入+JDK安裝配置+Hadoop安裝配置JDKHadoop
- 本地windows搭建spark環境,安裝與詳細配置(jdk安裝與配置,scala安裝與配置,hadoop安裝與配置,spark安裝與配置)WindowsSparkJDKHadoop
- Ubuntu下 hadoop的安裝與配置UbuntuHadoop
- hadoop+hive+hbase 的安裝配置HadoopHive
- Hadoop安裝手冊2-Hadoop環境配置Hadoop
- Hadoop開發環境配置1-maven安裝配置Hadoop開發環境Maven
- centos7 (阿里雲、linux) 單機spark的安裝與配置詳解(jdk安裝與配置,scala安裝與配置,hadoop安裝與配置,spark安裝與配置)CentOS阿里LinuxSparkJDKHadoop
- SonarQube 安裝配置使用
- centos7 hadoop 單機模式安裝配置CentOSHadoop模式
- Ubuntu16.04-hadoop3.1.0安裝與配置UbuntuHadoop
- hadoop叢集內lzo的安裝與配置Hadoop
- Hadoop完全分散式模式的安裝和配置Hadoop分散式模式
- FreeBSD下安裝配置Hadoop叢集(三)Hadoop
- python中安裝配置pyspark庫教程需要配合spark+hadoop使用PythonSparkHadoop
- 使用docker安裝hadoop(已實現)DockerHadoop
- hadoop單機安裝配置及測試通過Hadoop
- VNC的安裝配置使用VNC
- mongodb的安裝配置,使用MongoDB
- Nginx的安裝配置使用Nginx
- CentOS 7 安裝、配置、使用 PostgreSQL 10 安裝及基礎配置CentOSSQL
- 使用FreeBSD的ports安裝hadoop薦Hadoop
- Hadoop安裝指引Hadoop
- Hadoop 安裝部署Hadoop
- Hadoop安裝部署Hadoop
- Hadoop叢集安裝配置Hadoop
- 跟我一起hadoop(1)-hadoop2.6安裝與使用Hadoop
- 大資料專欄 - 基礎1 Hadoop安裝配置大資料Hadoop
- hadoop0.20.2偽分佈模式安裝和配置Hadoop模式
- hadoop0.20.2完全分佈模式安裝和配置Hadoop模式
- Ubuntu下偽分散式模式Hadoop的安裝及配置Ubuntu分散式模式Hadoop
- FreeBSD下安裝配置Hadoop叢集(效能調優)Hadoop
- 【Hadoop】 分散式Hadoop叢集安裝配置Hadoop分散式
- sqoop 安裝與配置使用OOP
- OSWatcher的安裝、配置、使用
- DNSmasq 的安裝、配置與使用DNS
- CentOS下tftp 安裝配置使用CentOSFTP
- Jetty的安裝、配置和使用Jetty
- logminer如何安裝配置使用