Hadoop叢集機器的hosts檔案配置

freshairpeng發表於2014-03-19
Hosts檔案配置,想必只要玩過Linux的人,都會配置,這個檔案存在於/etc/hosts裡,修改每個檔案之前,大家記得養成一個好的習慣,做一個備份:
1:cd /etc
2: cp hosts hosts0319
3: vi hosts
在這個檔案裡,把所有對應的Hadoop叢集伺服器,對應的IP,Hostname都增加進去。我自己測試用的虛擬機器的Host檔案如下:
127.0.0.1   localhost.localdomain  localhost
10.16.36.230    HadoopSrv01
10.16.36.231    HadoopSrv02
10.16.36.232    HadoopSrv03

當然在做以上配置之前,大家需要安裝好伺服器,伺服器可以有三種選擇:
1: 實體機,直接安裝Linux.
2:  效能好的一臺伺服器上面,通過安裝VM, 搭建虛擬機器。
3:在一臺效能一般的機器上通過搭建偽分散式來模擬測試。

具體硬體選型這塊,回頭再跟大家一起分享一下。 建議先搭建三個節點,每個節點有可能的話,記憶體配置到1-4G,硬碟100-500G,1顆2core的CPU,沒有條件的話,
1G 記憶體,20G硬碟,1顆1核CPU 也可以,自己學習的環境 ,都無所謂。

另外還有一個很重要的步驟就是:

1: 一定要關閉防火牆。
2: Disabled Selinux.
以上兩個操作,如果大家也不熟悉的話,請找度娘。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/14766526/viewspace-1124753/,如需轉載,請註明出處,否則將追究法律責任。

相關文章