hadoop+hbase+zookeeper叢集安裝方法
- 最近公司搭建hadoop+hbase+zookeeper叢集,期間遇到了許多問題,這裡和大家分享一下安裝的一些經驗,目的在於大家在部署hadoop叢集環境中少走一些彎路:
- 由於剛開始的時候我用虛擬機器安裝,安裝版本是hadoop0.20.2+hbase0.90.3+zookeeper3.3.3版本,在測試hbase叢集的時候hmaster不能正常啟動或者是啟動後程式自殺(在網上找到的答案應該是虛擬機器的記憶體小,不支援0.90.x以後的hbase版本啟動hmaster),最後hbase換成0.20.6或者是0.89.X版本的測試沒有問題;
- hadoop的下載地址http://archive.apache.org/dist/hadoop/common/
- hbase的下載地址:http://archive.apache.org/dist/hbase/
- zookeeper的下載地址:http://archive.apache.org/dist/hadoop/zookeeper/
- 1、 我的主機配置如下:(新增到/etc/hosts檔案裡面)
- 192.168.0.211 master (用於叢集主機提供hmaster namenode jobtasker服務 )
- 192.168.0.212 s1 (用於叢集叢機提供regionsrever datanode tasktacuter服務)
- 192.168.0.213 s2
- 2、安裝jdk1.6.2.X
- 3、新增java環境變數(/etc/profile),後執行source /etc/profile ,使環境變數立即生效
- export JAVA_HOME=/usr/java/jdk1.6.0_26/
- export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
- export PATH=$JAVA_HOME/bin:$PATH:$CATALINA_HOME/bin
- export HADOOP_HOME=/home/hadoop/hadoop
- export HBASE_HOME=/home/hadoop/hbase
- PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin
- 4、在三臺電腦上新增hadoop使用者
- useradd hadoop
- 5、在/home/hadoop/.bashrc新增變數
- (將hadoop hbase的配置檔案放到hadoop安裝包根目錄檔案下,目的在於以後升級hadoop和hbase的時候不用重新匯入配置檔案)
- export HADOOP_CONF_DIR=/home/hadoop/hadoop-config
- export HBASE_CONF_DIR=/home/hadoop/hbase-config
- 6、將hadoop hbase zookepper的安裝包解壓到/home/hadoop/下,並重新命名為hadoop hbase zookepper,在home/hadoop/下建立hadoop-config和hbase-config資料夾,並且將home/hadoop/hadoop/conf下的masters、slaves、core-site、mapred-sit、hdfs-site、hadoop-env拷貝到此資料夾,將home/hadoop/hbase/conf下的hbase-site和hbase-env.sh拷貝到次資料夾。
- 7、修改masters、slaves檔案:
- 分別為 master 和s1與s2
- 8、修改hadoop-env.sh的變數:
- export JAVA_HOME=/usr/java/jdk1.6.0_26/
- export HADOOP_PID_DIR=/home/hadoop/hadoop/tmp
- 9、修改core-site.xml
- <configuration>
- <property>
- <name>fs.default.name</name>
- <value>hdfs://master:9000</value>
- </property>
- </configuration>
- 修改mapred-site.xml
- <configuration>
- <property>
- <name>mapred.job.tracker</name>
- <value>hdfs://master:9001/</value>
- </property>
- </configuration>
- 修改hdfs-site.xml(name和data資料夾不要手動建立)
- <configuration>
- <property>
- <name>dfs.name.dir</name>
- <value>/home/hadoop/hadoop/name</value>
- </property>
- <property>
- <name>dfs.data.dir</name>
- <value>/home/hadoop/hadoop/data/</value>
- </property>
- <property>
- <name>dfs.replication</name>
- <value>3</value>
- </property>
- 10、設定master, s1, s2 機幾臺器之間無密碼訪問:
- (網上有許多文章,這裡就不寫了 )
- 11、scp -r /home/hadoop/hadoop s1:/home/hadoop
- scp -r /home/hadoop/hadoop s2:/home/hadoop
- 12、切換到/home/hadoop/hadoop目錄下
- 執行bin/hadoop namenode -format(格式化master主機生成name data tmp等資料夾)
- 13、啟動namenode
- 執行 bin/start-dfs.sh
- 使用jps命令檢視nomenode、secondnamenode是否正常啟動:
- ie裡面輸入http://master:50070 檢視namenode的相關配置資訊、執行狀態和日誌檔案
- 14、啟動mapred
- 執行 bin/start-mapred.sh
- 使用jps命令檢視nomenode、secondnamenode是否正常啟動:
- ie裡面輸入http://master:50030 檢視jobtasker的相關配置資訊、執行狀態和日誌檔案
- hbase+zookeeper叢集搭建:
- 1、將/home/hadoop/hadoop/conf/目錄下的hbase-site.xml、regionserver和hbase-env.sh拷貝到/home/hadoop/hbase-config/目錄下;
- 編輯hbase-site.xml配置檔案,如下:
- <property>
- <name>hbase.rootdir</name>
- <value>hdfs://master:9000/hbase</value>
- </property>
- <property>
- <name>hbase.cluster.distributed</name>
- <value>true</value>
- </property>
- <property>
- <name>hbase.master</name>
- <value>master</value>
- </property>
- <property>
- <name>hbase.zookeeper.quorum</name>
- <value>s1,s2</value>
- </property>
- <property>
- <name>zookeeper.session.timeout</name>
- <value>60000000</value>
- </property>
- <property>
- <name>hbase.zookeeper.property.clientport</name>
- <value>2222</value>
- </property>
- 2、編輯regionserver檔案
- S1
- S2
- 3、編輯hbase-env.xml檔案
- export JAVA_HOME=/usr/java/jdk1.6.0_26/
- export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
- export PATH=$JAVA_HOME/bin:$PATH:$CATALINA_HOME/bin
- export HADOOP_HOME=/home/hadoop/hadoop
- export HBASE_HOME=/home/hadoop/hbase
- export HBASE_MANAGES_ZK=true
- export PATH=$PATH:/home/hadoop/hbase/bin
- 4、scp -r /home/hadoop/hbase s1:/home/hadoop
- scp -r /home/hadoop/hbase s2:/home/hadoop
- 5、進入/home/hadoop/zookeeper/conf/中
- (1)cp zoo_sample.cfg zoo.cfg
- (2)vim zoo.cfg,如下:
- # The number of milliseconds of each tick
- tickTime=2000
- # The number of ticks that the initial
- # synchronization phase can take
- initLimit=10
- # The number of ticks that can pass between
- # sending a request and getting an acknowledgement
- syncLimit=5
- # the directory where the snapshot is stored.
- dataDir=/home/hadoop/zookeeper/data
- # the port at which the clients will connect
- clientPort=2181
- server.1=s1:2888:3888
- server.2=s2:2888:3888
- (3)touch myid
- 編輯:1(此序號設定和zoo.cfg裡面的server設定要對應)
- scp -r /home/hadoop/zookeeper s1:/home/hadoop
- scp -r /home/hadoop/zookeeper s2:/home/hadoop
- (4)在所有的節點執行chown -R hadoop.hadoop /home/hadoop
- 啟動hbase叢集:
- (1)/home/hadoop/hbase/bin/start-base.sh
- (2)執行jps顯示Hmaster是否啟動
- (3)執行bin/hbase shell
- (4)>create 't1' t2'' 't3'(測試利用hmaster插入資料)
- > list (顯示已經插入的資料)
- >t1+t2+t3
- 輸入:http://master:60010
相關文章
- 【redis叢集安裝】Redis
- zookeeper 叢集安裝
- kafka叢集安裝Kafka
- hbase叢集安裝
- StarRocks 叢集安裝
- cdh 叢集安裝
- ceph叢集安裝報錯解決方法
- ElasticSearch 6.6.0叢集安裝Elasticsearch
- TiDB叢集安裝TiDB
- Elasticsearch 叢集安裝部署Elasticsearch
- 【Zookeeper】zookeeper叢集安裝
- 記HBase叢集安裝
- Hadoop叢集安裝Hadoop
- Hadoop叢集安裝配置Hadoop
- kubernetes叢集安裝
- elasticsearch叢集安裝(3臺)Elasticsearch
- Storm叢集安裝與部署ORM
- ZooKeeper叢集安裝和部署
- linux ZooKeeper叢集安裝Linux
- WAS叢集安裝配置過程
- Kubernetes 叢集安裝
- redis cluster 4.0.9 叢集安裝搭建Redis
- WAS中介軟體垂直叢集安裝
- WAS中介軟體水平叢集安裝
- mongo副本集叢集安裝配置Go
- K8S叢集安裝K8S
- CDH5 叢集安裝教程H5
- Hadoop 叢集安裝與配置Hadoop
- hadoop叢集安裝檔案Hadoop
- Flink(四)叢集安裝(二)
- Zookeeper介紹與叢集安裝
- k8s 叢集安裝K8S
- Kafka叢集安裝Version2.10Kafka
- Redis概述和單機、叢集安裝Redis
- Hadoop叢集安裝詳細教程Hadoop
- ElasticSearch 2.3.3 叢集安裝+ Marvel + kibanaElasticsearch
- oracle雙機叢集安裝小結Oracle
- PXC(Percona XtraDB Cluster)叢集安裝