【原創】生產環境下Hadoop大叢集安裝與配置+DNS+NFS
《生產環境下Hadoop大叢集安裝與配置+DNS+NFS》
一 環境
Linux ISO:CentOS-6.0-i386-bin-DVD.iso 32位
JDK version:"1.6.0_25-ea" for linux
Hadoop software version:hadoop-0.20.205.0.tar.gz for linux
VMware® Workstation Version: 7.0.0 build-203739
我的linux虛擬機器配置 master slave1 slave2 資訊如下
主機名 |
IP |
節點名 |
備註 |
h1 |
192.168.2.102 |
master |
namenode和jobtracker |
h2 |
192.168.2.103 |
slave1 |
datanode和tasktracker |
H4 |
192.168.2.105 |
slave2 |
datanode和tasktracker |
DNS伺服器安裝與配置參考連結,感謝yanggw8071 mikeliu chizeng
1.
2.
3.
二 Bind安裝DNS伺服器併成功解析主機名
1.說明一下,我把DNS伺服器安裝到h1節點(master上)然後對h1 h2 h4 節點的主機名進行解析
2.需要h1節點可以上網,因為我們需要使用yum方式安裝DNS的rpm包,上網方式如下
CentOS需要能連入網路,這個比較簡單,可以參考《》,這篇文章在一開始就介紹了虛擬機器如何連線上網
3.原來我們使用的hosts檔案來解析主機名,現在可以不使用了直接刪除即可,我呢直接改名吧,這樣留著備用
[root@h1 etc]# mv /etc/hosts /etc/hosts_20130126
4.有的筒子使用了webmin軟體GUI方式配置了DNS伺服器,這種方式是挺方便的介面化人性化,但我用慣了命令列(碼農的歸宿)所以直接使用rpm方式來安裝DNS了
5.檢查一下bind包有沒有,這也是採用chroot機制
[root@h1 ~]# rpm -q bind
package bind is not installed
[root@h1 ~]# rpm -q bind-chroot
package bind-chroot is not installed
這裡顯示還沒有安裝,那麼我們就需要yum方式安裝啦
6.現在使用yum安裝bind 和 bind-chroot 軟體包
[root@h1 ~]# yum -y install bind bind-chroot
省略。。。。。。
Dependencies Resolved
=======================================================================================
Package Arch Version Repository Size
=======================================================================================
Installing: 安裝這2個包
bind i686 32:9.8.2-0.10.rc1.el6_3.6 updates 4.0 M
bind-chroot i686 32:9.8.2-0.10.rc1.el6_3.6 updates 70 k
Updating for dependencies: 升級2個依賴包
bind-libs i686 32:9.8.2-0.10.rc1.el6_3.6 updates 882 k
bind-utils i686 32:9.8.2-0.10.rc1.el6_3.6 updates 180 k
Transaction Summary
=======================================================================================Install 2 Package(s)
Upgrade 2 Package(s)
Installed:
bind.i686 32:9.8.2-0.10.rc1.el6_3.6 bind-chroot.i686 32:9.8.2-0.10.rc1.el6_3.6
Dependency Updated:
bind-libs.i686 32:9.8.2-0.10.rc1.el6_3.6 bind-utils.i686 32:9.8.2-0.10.rc1.el6_3.6
Complete!
到此bind 和 bind-chroot包安裝完成
[root@h1 ~]# rpm -q bind
bind-9.8.2-0.10.rc1.el6_3.6.i686
[root@h1 ~]# rpm -q bind-chroot
bind-chroot-9.8.2-0.10.rc1.el6_3.6.i686
哈哈 現在都已經安裝好了
7. yum install bind*還有三個包需要安裝
[root@h1 etc]# yum install bind*
Dependencies Resolved
=======================================================================================
Package Arch Version Repository Size
=======================================================================================
Installing: 安裝這3個包
bind-devel i686 32:9.8.2-0.10.rc1.el6_3.6 updates 376 k
bind-dyndb-ldap i686 1.1.0-0.9.b1.el6_3.1 updates 63 k
bind-sdb i686 32:9.8.2-0.10.rc1.el6_3.6 updates 305 k
Transaction Summary
=======================================================================================I
Install 3 Package(s)
Upgrade 0 Package(s)
Installed:
bind-devel.i686 32:9.8.2-0.10.rc1.el6_3.6
bind-dyndb-ldap.i686 0:1.1.0-0.9.b1.el6_3.1
bind-sdb.i686 32:9.8.2-0.10.rc1.el6_3.6
Complete!
現在都安裝完畢了
8.修改named.conf檔案,目錄/etc/named.conf
[root@h1 etc]# vim /etc/named.conf 修改2處,標紅顯示
options {
listen-on port 53 { any; }; //把127.0.0.1 修改成 any
listen-on-v6 port 53 { ::1; };
directory "/var/named";
dump-file "/var/named/data/cache_dump.db";
statistics-file "/var/named/data/named_stats.txt";
memstatistics-file "/var/named/data/named_mem_stats.txt";
allow-query { any; }; //localhost 修改成 any
recursion yes;
dnssec-enable yes;
dnssec-validation yes;
dnssec-lookaside auto;
/* Path to ISC DLV key */
bindkeys-file "/etc/named.iscdlv.key";
managed-keys-directory "/var/named/dynamic";
};
logging {
channel default_debug {
file "data/named.run";
severity dynamic;
};
};
zone "." IN {
type hint;
file "named.ca";
};
include "/etc/named.rfc1912.zones";
include "/etc/named.root.key";
9. 修改named.rfc1912.zones檔案,目錄/etc/named.rfc1912.zones
配置正向反向配置檔案
[root@h1 etc]# vim /etc/named.rfc1912.zones 在這個檔案末尾新增如下內容,紅色是注意的地方
zone "leonarding.com" IN {
type master;
file "leonarding.com.zone"; 注意這是你自己設定的域名,要牢牢記住
allow-update { none; };
};
zone "2.168.192.in-addr.arpa" IN {
type master;
file "2.168.192.in-addr.zone"; 這是反向配置檔案
allow-update { none; };
};
10.建立leonarding.com.zone和2.168.192.in-addr.zon 檔案
[root@h1 etc]# cd /var/named 進入這個目錄
[root@h1 named]# cp -p named.localhost leonarding.com.zone
[root@h1 named]# cp -p named.localhost 2.168.192.in-addr.zone
對這2個檔案進行修改,修改成新的檔案,這2個檔案就是區域檔案,一定要寫對了,否則會報錯
新增正向檔案並且配置
[root@h1 named]# vim leonarding.com.zone
$TTL 86400
@ IN SOA h1.leonarding.com. chizk. (
0 ; serial (d. adams)
1D ; refresh
1H ; retry
1W ; expiry
3H ) ; minimum
@ IN NS h1.leonarding.com.
h1.leonarding.com. IN A 192.168.2.102
h2.leonarding.com. IN A 192.168.2.103
h4.leonarding.com. IN A 192.168.2.105
新增反向檔案並且配置
[root@h1 named]# vim 2.168.192.in-addr.zone
$TTL 86400
@ IN SOA h1.leonarding.com. chizk. (
0 ; serial (d. adams)
1D ; refresh
1H ; retry
1W ; expiry
3H ) ; minimum
@ IN NS h1.leonarding.com.
102 IN PTR h1.leonarding.com.
103 IN PTR h2.leonarding.com.
105 IN PTR h4.leonarding.com.
修改正向檔案和反向檔案屬組,使用chgrp即可
[root@h1 named]# chgrp named leonarding.com.zone
[root@h1 named]# chgrp named leonarding.com.rev
11.修改/etc/resolv.conf 新增DNS域名伺服器ip
h1(master)
[root@h1 named]# vim /etc/resolv.conf
nameserver 192.168.2.102 在最後面追加此條即可,就是我的master機器ip
說明我們是把master機器作為DNS域名解析伺服器,
h2(slave)
[root@h2 sysconfig]# vim /etc/resolv.conf
nameserver 192.168.2.102
h4(slave)
[root@h4 .ssh]# vim /etc/resolv.conf
nameserver 192.168.2.102
新增DNS域名伺服器ip,當有域名或主機名解析的時候,就知道去哪臺機器上進行對映了
12.啟動DNS伺服器
[root@h1 named]# service named start
啟動 named: 【確定】
13.使用nslookup命令測試域名解析
測試之前關閉防火牆
[root@h1 named]# service iptables status
Iptables:未執行防火牆
正向解析域名->IP
[root@h1 named]# nslookup h1.leonarding.com
Server: 192.168.2.102 指域名伺服器ip地址
Address: 192.168.2.102#53 ip+埠號,DNS預設53埠
Name: h1.leonarding.com 域名解析
Address: 192.168.2.102 對映ip
[root@h1 named]# nslookup h2.leonarding.com
Server: 192.168.2.102 指域名伺服器ip地址
Address: 192.168.2.102#53 ip+埠號,DNS預設53埠
Name: h2.leonarding.com 域名解析
Address: 192.168.2.103 對映ip
[root@h1 named]# nslookup h4.leonarding.com
Server: 192.168.2.102 指域名伺服器ip地址
Address: 192.168.2.102#53 ip+埠號,DNS預設53埠
Name: h4.leonarding.com 域名解析
Address: 192.168.2.105 對映ip
反向解析IP->域名
[root@h1 named]# nslookup 192.168.2.102
Server: 192.168.2.102
Address: 192.168.2.102#5
102.2.168.192.in-addr.arpa name = h1.leonarding.com.
[root@h1 named]# nslookup 192.168.2.103
Server: 192.168.2.102
Address: 192.168.2.102#53
103.2.168.192.in-addr.arpa name = h2.leonarding.com.
[root@h1 named]# nslookup 192.168.2.105
Server: 192.168.2.102
Address: 192.168.2.102#53
105.2.168.192.in-addr.arpa name = h4.leonarding.com.
我們還可以使用host命令做解析測試
[root@h1 named]# host h2.leonarding.com
h2.leonarding.com has address 192.168.2.103
[root@h1 named]# host 192.168.2.103
103.2.168.192.in-addr.arpa domain name pointer h2.leonarding.com.
小結:到此我們使用Bind安裝DNS伺服器與配置,終於大功告成了,太不容易了,這是第一次獨立完成DNS的配置和排除故障,之前也做過但一直順風順水,這次遇到了困難,還是應該多仔細認真反覆查詢測試,在此感謝ask兄的點撥!
三 生產環境下hadoop大叢集NFS安裝與配置
1.說明一下,我還是把NFS系統安裝到h1節點(master上)然後把共享目錄掛載到h1 h2 h4節點,實現ssh金鑰的共享
2.NFS參考連結,感謝chizeng gaojian309
3.三臺虛擬作業系統如下
主機名 |
IP |
節點名 |
備註 |
h1 |
192.168.2.102 |
master |
namenode和jobtracker |
h2 |
192.168.2.103 |
slave1 |
datanode和tasktracker |
H4 |
192.168.2.105 |
slave2 |
datanode和tasktracker |
4.我們開始做實驗啦
檢查NFS包是否已經安裝
[root@h1 ~]# rpm -qa | grep nfs
nfs-utils-1.2.2-7.el6.i686
nfs4-acl-tools-0.3.3-5.el6.i686
nfs-utils-lib-1.1.5-1.el6.i686
現在都已經安裝到系統中了
檢查rpcbind包是否已經安裝
[root@h1 ~]# rpm -qa | grep rpcbind
rpcbind-0.2.0-8.el6.i686
現在都已經安裝到系統中了
如果你的系統顯示沒有安裝,可以使用yum install nfs-utils rpcbind 進行安裝,然後配置
5.我們檢視一下NFS服務和rpcbind服務是否啟動
[root@h1 ~]# service nfs status
rcp.svcgssd 已停
rpc.mountd 已停
nfsd 已停
rpc.rquotad 已停 nfs已經停止了,我們現在應該啟動nfs服務
[root@h1 ~]# service rpcbind status
rpcbind (pid 1431) 正在執行…….
6.啟動服務
[root@h1 ~]# service nfs start
啟動NFS服務 【確定】
關掉NFS配額 【確定】
啟動FNS守護程式 【確定】
啟動NFS mountd 【確定】
設定開機啟動
[root@h1 ~]# chkconfig nfs on
[root@h1 ~]# chkconfig rpcbind on
7.把/home/grid/目錄設定為共享目錄
[root@h1 grid]# vim /etc/exports 在exports檔案中新增/home/grid *(sync,rw)字串
/home/grid *(sync,rw)
解釋
/home/grid 是NFS要共享的目錄
星號 代表所有ip地址
Rw為讀寫,ro為只讀
Sync為立刻寫入硬碟,rsync為優先寫入快取
No_root_squas root使用者具有根目錄的完全管理訪問許可權(這個如果不配置會造成遠端root使用者只讀)
[root@h1 grid]# cat /etc/exports
/home/grid *(sync,rw)
8.重啟rpcbind和nfs服務
[root@h1 grid]# service rpcbind restart
停止 rpcbind: 【確定】
正在啟動rpcbind 【確定】
[root@h1 grid]# service nfs restart
全部啟動
注意這裡也要關閉防火牆設定
9.輸出本地掛載點(即master上的共享目錄)
[root@h1 grid]# showmount -e localhost
Export list for localhost:
/home/grid *
解釋:
/home/grid 是NFS要共享的目錄
星號 代表所有ip地址
10.客戶端h2 h4上配置
登陸h2
[root@h2 ~]# mkdir /nfs_share 在根目標下建立掛載點
[root@h2 ~]# mount -t nfs 192.168.2.102:/home/grid /nfs_share/
在h2上訪問h1把/home/grid目錄掛載到/ nfs_share/目錄下
drwx------. 38 grid hadoop 4096 12月 15 15:00 nfs_share
切換到grid使用者進入共享目錄檢視
[grid@h2 ~]$ cd /nfs_share/
-bash: cd: nfs_share/: 許可權不夠
報錯啦,許可權不夠,這是為什麼呢,經過了激烈的測試,發現是h1中/home/grid目錄許可權問題
[root@h1 home]# chmod -R 777 grid 為了方便我直接給了全部許可權,在h1上操作
[root@h2 /]# mount 192.168.2.102:/home/grid/ /nfs_share/ 在h2上重新掛載目錄
[root@h2 /]# su – grid 切換使用者
[grid@h2 /]$ cd nfs_share/ ok我們現在可以暢通無阻了
[grid@h2 nfs_share]$ cd .ssh 沒有問題進來啦,成功
11.小測試
測試什麼呢,我們不是設定了共享目錄嘛,我在h1的共享目錄上建立一個11111111.txt檔案,然後登陸h2的掛載點,看看能不能查詢到
h1 服務端
[root@h1 grid]# touch 11111111.txt
[root@h1 grid]# ll | grep 11111111.txt
h2 客戶端
[grid@h2 nfs_share]$ ll | grep 11111111.txt
-rw-r--r--. 1 root root 0 1月 27 14:27 11111111.txt
12.設定開機後自動掛載nfs共享目錄
修改fstab檔案,這個檔案描述了開機後應該掛載哪些掛載點
[root@h2 ~]# vim /etc/fstab 在最後新增這行命令
192.168.2.102:/home/grid /nfs_share nfs defaults 1 1
[root@h2 ~]# cat /etc/fstab
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts gid=5,mode=620 0 0
sysfs /sys sysfs defaults 0 0
proc /proc proc defaults 0 0
192.168.2.102:/home/grid /nfs_share nfs defaults 1 1
現在NFS配置成功
13.使用NFS共享金鑰檔案
h2 客戶端
[grid@h2 .ssh]$ pwd
/nfs_share/.ssh
[grid@h2 .ssh]$ ln -s authorized_keys /home/grid/.ssh/authorized_keys
這種方式可能會導致軟連結檔案符號連結的層次過多,建立失敗,但會有檔名注意檔名是紅色的,這是不正常的,避免的方法是都使用絕對路徑
還有另一種方法
[grid@h2 .ssh]$ cd ~/.ssh/
[grid@h2 .ssh]$ ln -s /nfs_share/.ssh/authorized_keys authorized_keys
authorized_keys -> /nfs_share/.ssh/authorized_keys
第一個authorized_keys指的是h2上的,第二個authorized_keys指的是h1上的,注意區分
我們用h1的authorized_keys檔案來建立h2上authorized_keys檔案軟連結
注意如果原來h2上就有/home/grid/.ssh/authorized_keys檔案需要先刪除在建立
rm -rf /home/grid/.ssh/authorized_keys
我們在h2上看一下h1的authorized_keys檔案內容
[grid@h2 .ssh]$ cat /nfs_share/.ssh/authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAr6+D01KKqeMUrkyakulV3su+9RU+jJ6sNJMlydxFq38oGBsJBwcskVL/I9ds7vE5g7coP+cMzgtRyj1ns+elgF0g3/uhtSerad4QdWXVLZgUjyUxijkm+nI3SSdwLihzsNNgH4GzeKX3HQAH/7S+rLoZSBPi//w9HYfO6VeXdo7N2lkvUxNW2z/h7JuYPMEqiaOIWAeLK7AJXhjJaeJkZh/ccGuEx4uBLRxqce5zjbNsFapoD2bact1w80a7mrgzAN3cVcQuQPzmpdj750negxMtai+QRmPDlSx2ZXtbarI4opSVmBiqpY84PJ/h9m5wptQ3hg/1XIxv4gyqwLSxZw== grid@h4
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5iKGfOGKh3d8BYr4vkkNaEtZkxCbBzBn6pfD0n3h82/1f9PwEtT4CEgqzBssYvQ2Nbc6dUy2NbDD9j5dIwQENS/fAJDwccdiJjEYMo5+o4ocPABx6OVM0r9nsUkyU7bxeHjap3ZUmcC1UvgW5asOsRMl7ePCze+rnt5D5ldZ+VOKh0NgtY2/CST8qXHmedfZFbQSEhIPf5Lh4A6oSoRHTFQbDN4apvf5s7Cm5/NgPiyhU+KbHBz96pNCxkjuOwj69a7kx4AgQYJoYc0T9O6YfjfVy3l1a7N2aJ6jp4SMv0GaohgzIrBNXwoFK6skuyf10yIxvNlGzkhTYK9GS9hjJw== grid@h2
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5V1lyss14a8aWFEkTk/aBgKHFLMX/XZX/xtXVUqJl8NkTQVLQ37+XLyqvTfrcJSja70diqB3TrwBp3K5eXNxp3EOr6EGHsi0B6D8owsg0bCDhxHGHu8RX8WB4DH9UOv1uPL5BESAPHjuemQuQaQzLagqrnXbrKix8CzdIEgmnOknYiS49q9msnzawqo3luQFRU7MQvAU9UZqkxotrnzHqh0tgjJ3Sq6O6nscA7w//Xmb0JGobVQAFCDJQdn/z1kOq7E5WNhVa8ynF9GOF7cMdppug7Ibw1RZ9cKa+igi1KhhavS5H7XCM64NuGfC87aQE9nz0ysS3Kh8PT5h6zlxfw== grid@h1
我們在看看h2的軟連結檔案內容是不是已經鏈過去了
[grid@h2 .ssh]$ cat authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAr6+D01KKqeMUrkyakulV3su+9RU+jJ6sNJMlydxFq38oGBsJBwcskVL/I9ds7vE5g7coP+cMzgtRyj1ns+elgF0g3/uhtSerad4QdWXVLZgUjyUxijkm+nI3SSdwLihzsNNgH4GzeKX3HQAH/7S+rLoZSBPi//w9HYfO6VeXdo7N2lkvUxNW2z/h7JuYPMEqiaOIWAeLK7AJXhjJaeJkZh/ccGuEx4uBLRxqce5zjbNsFapoD2bact1w80a7mrgzAN3cVcQuQPzmpdj750negxMtai+QRmPDlSx2ZXtbarI4opSVmBiqpY84PJ/h9m5wptQ3hg/1XIxv4gyqwLSxZw== grid@h4
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5iKGfOGKh3d8BYr4vkkNaEtZkxCbBzBn6pfD0n3h82/1f9PwEtT4CEgqzBssYvQ2Nbc6dUy2NbDD9j5dIwQENS/fAJDwccdiJjEYMo5+o4ocPABx6OVM0r9nsUkyU7bxeHjap3ZUmcC1UvgW5asOsRMl7ePCze+rnt5D5ldZ+VOKh0NgtY2/CST8qXHmedfZFbQSEhIPf5Lh4A6oSoRHTFQbDN4apvf5s7Cm5/NgPiyhU+KbHBz96pNCxkjuOwj69a7kx4AgQYJoYc0T9O6YfjfVy3l1a7N2aJ6jp4SMv0GaohgzIrBNXwoFK6skuyf10yIxvNlGzkhTYK9GS9hjJw== grid@h2
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5V1lyss14a8aWFEkTk/aBgKHFLMX/XZX/xtXVUqJl8NkTQVLQ37+XLyqvTfrcJSja70diqB3TrwBp3K5eXNxp3EOr6EGHsi0B6D8owsg0bCDhxHGHu8RX8WB4DH9UOv1uPL5BESAPHjuemQuQaQzLagqrnXbrKix8CzdIEgmnOknYiS49q9msnzawqo3luQFRU7MQvAU9UZqkxotrnzHqh0tgjJ3Sq6O6nscA7w//Xmb0JGobVQAFCDJQdn/z1kOq7E5WNhVa8ynF9GOF7cMdppug7Ibw1RZ9cKa+igi1KhhavS5H7XCM64NuGfC87aQE9nz0ysS3Kh8PT5h6zlxfw== grid@h1
看一模一樣
在H4節點上共享金鑰檔案
h4
[root@h4 ~]# mkdir /nfs_share 在根目標下建立掛載點
[root@h4 ~]# mount -t nfs 192.168.2.102:/home/grid /nfs_share/
在h4上訪問h1把/home/grid目錄掛載到/ nfs_share/目錄下
[root@h4 ~]# su – grid 切換到grid使用者
[grid@h4 /]$ cd nfs_share/.ssh/ 我們可以成功進入共享目錄來訪問h1中的檔案
修改fstab檔案,這個檔案描述了開機後應該掛載哪些掛載點
[root@h4 ruby]# vim /etc/fstab
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts gid=5,mode=620 0 0
sysfs /sys sysfs defaults 0 0
proc /proc proc defaults 0 0
192.168.2.102:/home/grid /nfs_share nfs defaults 1 1
在最後新增紅色字串一行,這樣在重啟時系統就會自動掛載NFS共享目錄
[grid@h4 .ssh]$ cd ~/.ssh/ 進入h4的.ssh目錄
[grid@h4 .ssh]$ rm -rf authorized_keys 發現原來存在authorized_keys檔案顧刪除
[grid@h4 .ssh]$ ln -s /nfs_share/.ssh/authorized_keys ~/.ssh/authorized_keys
authorized_keys -> /nfs_share/.ssh/authorized_keys 軟連結檔案已經生成
[grid@h4 .ssh]$ cat authorized_keys 檢視軟連結檔案內容
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAr6+D01KKqeMUrkyakulV3su+9RU+jJ6sNJMlydxFq38oGBsJBwcskVL/I9ds7vE5g7coP+cMzgtRyj1ns+elgF0g3/uhtSerad4QdWXVLZgUjyUxijkm+nI3SSdwLihzsNNgH4GzeKX3HQAH/7S+rLoZSBPi//w9HYfO6VeXdo7N2lkvUxNW2z/h7JuYPMEqiaOIWAeLK7AJXhjJaeJkZh/ccGuEx4uBLRxqce5zjbNsFapoD2bact1w80a7mrgzAN3cVcQuQPzmpdj750negxMtai+QRmPDlSx2ZXtbarI4opSVmBiqpY84PJ/h9m5wptQ3hg/1XIxv4gyqwLSxZw== grid@h4
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5iKGfOGKh3d8BYr4vkkNaEtZkxCbBzBn6pfD0n3h82/1f9PwEtT4CEgqzBssYvQ2Nbc6dUy2NbDD9j5dIwQENS/fAJDwccdiJjEYMo5+o4ocPABx6OVM0r9nsUkyU7bxeHjap3ZUmcC1UvgW5asOsRMl7ePCze+rnt5D5ldZ+VOKh0NgtY2/CST8qXHmedfZFbQSEhIPf5Lh4A6oSoRHTFQbDN4apvf5s7Cm5/NgPiyhU+KbHBz96pNCxkjuOwj69a7kx4AgQYJoYc0T9O6YfjfVy3l1a7N2aJ6jp4SMv0GaohgzIrBNXwoFK6skuyf10yIxvNlGzkhTYK9GS9hjJw== grid@h2
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5V1lyss14a8aWFEkTk/aBgKHFLMX/XZX/xtXVUqJl8NkTQVLQ37+XLyqvTfrcJSja70diqB3TrwBp3K5eXNxp3EOr6EGHsi0B6D8owsg0bCDhxHGHu8RX8WB4DH9UOv1uPL5BESAPHjuemQuQaQzLagqrnXbrKix8CzdIEgmnOknYiS49q9msnzawqo3luQFRU7MQvAU9UZqkxotrnzHqh0tgjJ3Sq6O6nscA7w//Xmb0JGobVQAFCDJQdn/z1kOq7E5WNhVa8ynF9GOF7cMdppug7Ibw1RZ9cKa+igi1KhhavS5H7XCM64NuGfC87aQE9nz0ysS3Kh8PT5h6zlxfw== grid@h1
小結:透過對比我們知道h1的authorized_keys授權檔案和h2 h4上的軟連結檔案內容都是一模一樣的,到此我們就可以免密碼連入了
2013.1.27
天津&winter
分享技術~成就夢想
Blog:
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/26686207/viewspace-753510/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 《生產環境下Hadoop大叢集安裝與配置+DNS+NFS》HadoopDNSNFS
- Hadoop 叢集安裝與配置Hadoop
- Hadoop叢集安裝配置Hadoop
- 完全分散式模式hadoop叢集安裝與配置分散式模式Hadoop
- 【Hadoop】 分散式Hadoop叢集安裝配置Hadoop分散式
- Hadoop叢集安裝Hadoop
- 生產環境Hadoop大叢集完全分散式模式安裝 NFS+DNS+awkHadoop分散式模式NFSDNS
- Elasticsearch叢集搭建教程及生產環境配置Elasticsearch
- 大資料叢集搭建 – 1. CDH叢集安裝 – 環境準備大資料
- hadoop叢集安裝檔案Hadoop
- Windows下Weblogic 11G叢集安裝與配置WindowsWeb
- Hadoop叢集安裝詳細教程Hadoop
- WAS叢集安裝配置過程
- ubuntu下hadoop環境配置UbuntuHadoop
- WeblogicServer11G叢集安裝與配置WebServer
- 學習一:hadoop 1.0.1叢集安裝Hadoop
- hadoop+hbase+zookeeper叢集安裝方法Hadoop
- Webpack(開發、生產環境配置)Web
- mongo副本集叢集安裝配置Go
- Storm叢集安裝與部署ORM
- [Hadoop踩坑]叢集分散式環境配置Hadoop分散式
- hadoop叢集安裝遇到Duplicate metricsName:getProtocolVersionHadoopProtocol
- Oracle 12cR1 RAC叢集安裝(一)--環境準備Oracle
- hadoop學習之hadoop完全分散式叢集安裝Hadoop分散式
- Yarn 生產環境多佇列配置Yarn佇列
- 生產環境的redis高可用叢集搭建Redis
- 企業生產環境Nacos叢集部署示例
- Zookeeper介紹與叢集安裝
- hadoop叢集環境搭建Hadoop
- Hadoop 2.6 叢集搭建從零開始之3 Hadoop的安裝與配置(偽分散式環境)Hadoop分散式
- Hadoop 2.6 叢集搭建從零開始之4 Hadoop的安裝與配置(完全分散式環境)Hadoop分散式
- Hadoop3.0完全分散式叢集安裝部署Hadoop分散式
- 10分鐘搞定Windows環境下hadoop安裝和配置WindowsHadoop
- laravel生產環境下新增欄位Laravel
- 生產環境的 ElasticSearch 安裝指南Elasticsearch
- Hadoop框架:叢集模式下分散式環境搭建Hadoop框架模式分散式
- Linux 下 Hadoop 2.6.0 叢集環境的搭建LinuxHadoop
- Hadoop安裝手冊2-Hadoop環境配置Hadoop