Hadoop 2.6 叢集搭建從零開始之3 Hadoop的安裝與配置(偽分散式環境)
Hadoop的下載官網為
http://hadoop.apache.org/releases.html
1.使用wget http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.6.5/hadoop-2.6.5.tar.gz命令下載hadoop 2.6.5
例如我這裡下載到了/chenjie下
2.使用 tar -zxvf hadoop-2.6.5.tar.gz命令解壓此壓縮包
此時出現/chenjie/hadoop-2.6.5資料夾
3.修改hosts:新增主機名和IP的對應,目的是為了使用主機名的時候能夠定位(通過IP)到不同的機器。
【注:如何檢視某一虛擬機器的IP】
通過檢視設定,網路
知道pc1的IP地址為192.168.153.131
pc2的IP地址為192.168.153.132
- 把機器的IP和主機名對應填入hosts檔案,例項如下所示。填寫完之後儲存退出。
在pc1下輸入ping pc2 看是否能解析到其地址:
能解析到即可。
4.配置SSH免密碼登入,目的是使主結點pc1能夠免密碼呼叫pc2 以及後面可能的其它從結點,以啟動服務
sudo apt-get update //更新源 2 sudo apt-get install openssh-server //安裝ssh伺服器 3 sudo ps -e |grep ssh //檢視ssh服務是否啟動 4 sudo service ssh start //開啟ssh服務 5 ssh-keygen -t rsa //生成公鑰金鑰 一路enter就行了 6 cat /home/chenjie/.ssh/id_rsa.pub >>/home/chenjie/.ssh/authorized_keys //將公鑰新增到使用者公鑰檔案
此時會將pc1的公鑰複製進pc1的認證檔案(authorized_keys)中
對pc2進行同樣的操作
將pc1、pc2的認證檔案合併
例如:
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQColBSRQ/YmsdBPpvwOryXVQEhyKh7UACLcZNKuJ95DmJSjrGqvt7fFP25CBk4+LyGUNhYpK8NOfX59RpbqcBbgxsm1EORK6KaFcEg5IklxHLHitptJkBSXGIcD4W1mvZnDwF1JV5W4EYs/Bb8oLgd2KrhvIEgBdqFZ621A3F8SHx4D77dlT9JPssxOQ5CKKW5wX/kogrkwO51Ys2MvnZASnc/+FGsPHs4HyFFNKJTWnWgAL/CovmkGc2C87F43FbCtWdRWP5XS0GtXdb6+kMZTr7C8okgSu/ZZpSWUdDQ0i+Xuq9zY5Lk4rJ2jdRPTpRTTHa3EIkqQNvM/oUarMeuJ chenjie@pc2
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQC/dR8PSkhpZRWET52wJ4S5YU07vvtqPKrqzTWWvwuOR2pw1eSxaj+QVc114iDklZfuHVwhFUClovZOg15fRdgCSyeLQRHem+UkUCCf351IPpoNLwM/716yWWb7R8sb1ERsVMguhp1QjaiSZ80yTYNm4LtxQpKs/u2Ox5LAZCHdtgP5cyjJrsJPPWSJV/IzsQETJPmUQlU0WpLqRD96LHh4aAk0rikxo/GFJPfM6W6ysCwGk+1W8QZGVvK/j4dQBSLim/rIGi6UC5sNW7c8/9/hzl2WPsPUnAOZVATnSfnSwUZA/SVad5XUkIikiT+faP7da9OJZlaZVlA5bNb9F/vN chenjie@pc3
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQDeMHsJm25FcNuY7dAsgRuT/FCXf7sBsf20ND09CSu4nTcFzJVK4/t8LMDt3gEKE63Uv4i5gKgDORDyZJPSrSKG+vkGKwInEaZW8jYLcCJy+wC6rJmAkYBfF9m4cx1qg06rUeEykWT9wr0qr5CX8CL19I/sBn70P95MafgOJ3PUczM14S8kwO6IpYbDoUTkoSoA1aflAmo4m8MGUjzF1UU/Jer2ccfTnIIw+H20GVOG4gxW7YmsDtULmA3BqnewGatHZhxwjk+MmeeMqc92y/l0GY4wWmibd5ZbBO/yalXmMhrbf7HtTPg2TtA0HtrCNhbqOJwE7h67B4oMadI7HipH chenjie@pc4
也就是說將pc2的公鑰放進pc1的認證檔案種
cd .ssh
cat cat authorized_keys
vim cat authorized_keys
複製貼上
驗證成功方法,在pc1中輸入 ssh pc2 能夠登入到pc2
或者採用命令列的方式:使用命令傳送公鑰給其它結點
ssh-copy-id -i ~/.ssh/id_rsa.pub 192.168.91.135
5.配置hadoop環境變數(請把圖中的2.8.1改為2.6.5)
export HADOOP_HOME=/chenjie/hadoop-2.8.1
export CLASSPATH=.:$HADOOP_HOME/lib:$CLASSPATH
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_ROOT_LOGGER=INFO,console
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
- 儲存退出,輸入 source /etc/profile
6.配置hadoop配置檔案
到hadoop目錄的/etc/hadoop下
配置hadoop-env.sh,只需要加上一行
export JAVA_HOME=/.... 這裡填JAVA的安裝根目錄
配置
- core-site.xml:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://pc1:9000</value> </property> <!-- Size of read/write buffer used in SequenceFiles. --> <property> <name>io.file.buffer.size</name> <value>4096</value> </property> <!-- 指定hadoop臨時目錄,自行建立 --> <property> <name>hadoop.tmp.dir</name> <value>/chenjie/hadoop-2.6.5/tmp</value> </property> </configuration>
<configuration>
<!-- 備份數:預設為3-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!-- namenode-->
<property>
<name>dfs.namenode.name.dir</name>
<value>/chenjie/hadoop-2.6.5/hdfs/name</value>
</property>
<!-- datanode-->
<property>
<name>dfs.datanode.data.dir</name>
<value>/chenjie/hadoop-2.6.5/hdfs/data</value>
</property>
<!--許可權控制:false:不做控制即開放給他使用者訪問 -->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
<configuration>
<!-- mapreduce任務執行框架為yarn-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
配置yarn-site.xml<configuration>
<property>
<description>The hostname of the RM.</description>
<name>yarn.resourcemanager.hostname</name>
<value>pc1</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
配置slaves為pc1(因為是偽分佈環境,本機也作為從結點)scp -r hadoop-2.6.5 root@pc2:/chenjie
8.將pc2的配置檔案/etc/profile改成跟pc1的一模一樣
相關文章
- Hadoop 2.6 叢集搭建從零開始之4 Hadoop的安裝與配置(完全分散式環境)Hadoop分散式
- Hadoop 2.6 叢集搭建從零開始之2 JDK1.8安裝HadoopJDK
- Spark 叢集搭建從零開始之2 Spark單機偽分散式安裝與配置Spark分散式
- Hadoop 2.6 叢集搭建從零開始之1 Ubuntu虛擬機器搭建HadoopUbuntu虛擬機
- [hadoop]hadoop2.6完全分散式環境搭建Hadoop分散式
- Hadoop入門(一)之Hadoop偽分散式環境搭建Hadoop分散式
- hadoop 2.8.5偽分散式環境搭建Hadoop分散式
- [Hadoop踩坑]叢集分散式環境配置Hadoop分散式
- 從 0 開始使用 Docker 快速搭建 Hadoop 叢集環境DockerHadoop
- Spark 叢集搭建從零開始之1 Scala的安裝與配置Spark
- Hadoop框架:叢集模式下分散式環境搭建Hadoop框架模式分散式
- hadoop叢集搭建——單節點(偽分散式)Hadoop分散式
- hadoop偽分散式叢集的安裝(不是單機版)Hadoop分散式
- Dockerfile完成Hadoop2.6的偽分散式搭建DockerHadoop分散式
- hadoop叢集環境搭建Hadoop
- hadoop分散式叢集搭建Hadoop分散式
- Spark 叢集搭建從零開始之3 Spark Standalone叢集安裝、配置與測試Spark
- hadoop3.1.0 HDFS快速搭建偽分散式環境Hadoop分散式
- hadoop偽分散式安裝Hadoop分散式
- HADOOP SPARK 叢集環境搭建HadoopSpark
- Hadoop3偽分散式安裝指南Hadoop分散式
- 構建Hadoop偽分散式環境Hadoop分散式
- Hadoop分散式叢集搭建_1Hadoop分散式
- 分散式Hadoop1.2.1叢集的安裝分散式Hadoop
- Hadoop叢集之 ZooKeeper和Hbase環境搭建Hadoop
- 【Hadoop】 分散式Hadoop叢集安裝配置Hadoop分散式
- Hadoop完全分散式叢集配置Hadoop分散式
- 從零自學Hadoop(06):叢集搭建Hadoop
- hadoop完全分散式環境搭建Hadoop分散式
- [hadoop] hadoop-all-in-one-偽分散式安裝Hadoop分散式
- Ubuntu下偽分散式模式Hadoop的安裝及配置Ubuntu分散式模式Hadoop
- hadoop叢集內lzo的安裝與配置Hadoop
- 從零開始搭建Nginx和Tomcat的web叢集環境NginxTomcatWeb
- hadoop2.2.0偽分散式安裝Hadoop分散式
- 生產環境Hadoop大叢集完全分散式模式安裝 NFS+DNS+awkHadoop分散式模式NFSDNS
- hadoop 2.8.5完全分散式環境搭建Hadoop分散式
- 大資料之Hadoop偽分散式的搭建大資料Hadoop分散式
- 完全分散式模式hadoop叢集安裝與配置分散式模式Hadoop