運維利器-ClusterShell叢集管理操作記錄

散盡浮華發表於2016-11-24

 

在運維實戰中,如果有若干臺資料庫伺服器,想對這些伺服器進行同等動作,比如檢視它們當前的即時負載情況,檢視它們的主機名,分發檔案等等,這個時候該怎麼辦?一個個登陸伺服器去操作,太傻帽了!寫個shell去執行,浪費時間~~

這種情況下,如果叢集數量不多的話,選擇一個輕量級的叢集管理軟體就顯得非常有必要了。ClusterShell就是這樣一種小的叢集管理工具,原理是利用ssh,可以說是Linux系統下非常好用的運維利器!
選擇了clustershell這個軟體(也簡稱clush),原因如下:
1)安裝方便。一條指令就能輕鬆安裝。
2)配置方便。很多叢集管理軟體都需要在所有的伺服器上都安裝軟體,而且還要進行很多的連線操作,clustershell就相當的方便了,僅僅需要所有機器能夠ssh無密碼登入即可,然後只在一臺伺服器上安裝clustershell即可。
3)使用方便。clustershell的命令相對來說非常簡單,只有一兩個指令以及三四個引數需要記。

一、部署clush環境

安裝clush(可以yum直接安裝,也可以原始碼安裝)
# yum install -y clustershell

配置clush:
在/etc/clustershell目錄下,手動建立groups檔案
# touch /etc/clustershell/groups
# vim /etc/clustershell/groups
all: a1 host1 host2
name:host3 host4

需要注意的是all 是必須配置的,clush 有 -a 這個引數,主機間用空格分離。

clush命令:
clush -a 全部 等於 clush -g all
clush -g 指定組
clush -w 操作主機名字,多個主機之間用逗號隔開
clush -g 組名 -c  --dest 檔案群發     (-c等於--copy)

注意:clush 是不支援環境變數的$PATH

二、下面依據例項對clush的使用進行說明
現在有四臺伺服器,主機名分別是ops-server1、ops-server2、ops-server3、ops-server4
需求:
利用ops-server1伺服器控制其他三臺伺服器進行叢集操作.
那麼只需要在ops-server1上安裝clustershell,並前提做好ops-server1主機和其他三臺機器的ssh無密碼登陸的信任關係即可.

下面是ops-server1伺服器上的操作記錄:
1)做好主機對映關係,將ip和主機名對應起來,使用比較方便。
[root@ops-server1 ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.102 ops-server2
192.168.1.118 ops-server3
192.168.1.108 ops-server4

2)做好ssh信任關係(最好事後驗證下無密碼信任關係)
[root@ops-server1 ~]# ssh-keygen -t rsa (產生本機的公私鑰檔案,否則沒法做ssh信任關係,也沒法使用ssh-copy-id命令)
[root@ops-server1 ~]# ssh-copy-id ops-server2
[root@ops-server1 ~]# ssh-copy-id ops-server3
[root@ops-server1 ~]# ssh-copy-id ops-server4

3)安裝clush,然後配置clush(手動建立groups檔案)
可以採用yum方式安裝(yum install clustershell -y)
這裡採用yum原始碼安裝方式,下載clustershell-1.6.tar.gz,下載到/usr/local/src目錄下
原始碼下載地址:http://openstorage.gunadarma.ac.id/pypi/simple/ClusterShell/
[root@ops-server1 ~]# cd /usr/local/src/
[root@ops-server1 src]# ls
clustershell-1.6.tar.gz
[root@ops-server1 src]# tar -zvxf clustershell-1.6.tar.gz
[root@ops-server1 src]# cd clustershell-1.6
[root@ops-server1 clustershell-1.6]# python setup.py install
-----------------------------------------------------------------------------------------------------
如果出現下面報錯,說明Python預設沒有安裝setuptools這個第三方模組。
Traceback (most recent call last):
File "setup.py", line 35, in <module>
from setuptools import setup, find_packages
ImportError: No module named setuptools

解決辦法:
安裝setuptools(可以百度網盤下載,http://pan.baidu.com/s/1mhTDRBE  提取密碼:xpmd),如下安裝setuptools後,再次安裝上面的clustershell就ok了。
[root@ops-server1 src]# wget http://pypi.python.org/packages/source/s/setuptools/setuptools-0.6c11.tar.gz
[root@ops-server1 src]# tar -zxvf setuptools-0.6c11.tar.gz
[root@ops-server1 src]# cd setuptools-0.6c11
[root@ops-server1 setuptools-0.6c11]# python setup.py build
[root@ops-server1 setuptools-0.6c11# python setup.py install

-----------------------------------------------------------------------------------------------------
[root@ops-server1 clustershell-1.6]# mkdir /etc/clustershell
[root@ops-server1 clustershell-1.6]# cp -r conf/* /etc/clustershell
[root@ops-server1 clustershell-1.6]# cd /etc/clustershell/
[root@ops-server1 clustershell]# ls
clush.conf groups groups.conf groups.conf.d

可以將groups檔案裡預設的示例內容全部註釋,然後按照自己的叢集管理需求自定義配置的組對應關係,(再次強調下:groups檔案中的all組對應是必須要配置的,clush 有 -a 這個引數,主機間用空格分離。)
如下,配置組all,組db等的對應關係,這些組不是真實存在機器上的使用者組,而是在groups檔案中設定的別名而已,用以批量操作。
總之,可以在groups檔案裡設定多組對應關係,然後對組對應的主機進行遠端操控!!!
[root@ops-server1 clustershell]# cat groups
#adm: example0
#oss: example4 example5
#mds: example6
#io: example[4-6]
#compute: example[32-159]
#gpu: example[156-159]
#all: example[4-6,32-159]
db: ops-server[2,3]
all: ops-server[2,3,4]

解下來就可以利用clush管理命令進行遠端機器叢集管理了,常用的是下面幾個引數:
-g 後面指定設定的組
-a 表示所有的組
-w 後面跟主機節點,多個主機中間用逗號隔開
-x 表示去掉某個節點進行操作。後面跟主機節點,多個主機中間用逗號隔開
-X 表示去掉某個組進行操作,多個組之間用逗號隔開
-b 相同輸出結果合併

注意,clush操作遠端機器,執行動作要放在雙引號或單引號內進行

------------------------------------------------------------------------------------------------
如果出現下面報錯:
[root@ops-server1 clustershell]# clush -g db uptime
ops-server2: Host key verification failed.
clush: ops-server2: exited with exit code 255
ops-server3: Host key verification failed.
clush: ops-server3: exited with exit code 255

原因可能是ssh首次登陸的時候,會提示輸入"yes/no",需要提前將這個執行。
[root@ops-server1 clustershell]# ssh ops-server2
The authenticity of host 'ops-server2 (192.168.1.102)' can't be established.
RSA key fingerprint is 89:29:5b:26:c1:3a:94:10:10:bd:7c:aa:6b:e5:0c:1c.
Are you sure you want to continue connecting (yes/no)? yes                 #這裡要輸入yes
.......

[root@ops-server3 clustershell]# ssh ops-server3
The authenticity of host 'ops-server2 (192.168.1.118)' can't be established.
RSA key fingerprint is 89:29:5b:26:c1:3a:94:10:10:bd:7c:aa:6b:e5:0c:1c.
Are you sure you want to continue connecting (yes/no)? yes                 #這裡要輸入yes
.......
------------------------------------------------------------------------------------------------

[root@ops-server1 clustershell]# clush -g db uptime
ops-server2: 22:49:35 up 4 days, 14:24, 0 users, load average: 0.00, 0.01, 0.05
ops-server3: 22:49:42 up 11:13, 1 user, load average: 0.00, 0.01, 0.05
[root@ops-server1 clustershell]# clush -a uptime
ops-server2: 22:49:49 up 4 days, 14:24, 0 users, load average: 0.00, 0.01, 0.05
ops-server4: 22:49:42 up 8 days, 30 min, 0 users, load average: 0.00, 0.01, 0.05
ops-server3: 22:49:57 up 11:13, 1 user, load average: 0.00, 0.01, 0.05
[root@ops-server1 clustershell]# clush -a hostname
ops-server4: ops-server4
ops-server3: ops-server3
ops-server2: ops-server2

[root@ops-server1 clustershell]# clush -a "echo asdfsdf > /tmp/test"
[root@ops-server1 clustershell]# clush -a "cat /tmp/test"
ops-server4: asdfsdf
ops-server3: asdfsdf
ops-server2: asdfsdf

[root@ops-server1 clustershell]# clush -w ops-server3 'ifconfig|grep "inet addr"|grep 192.168'
ops-server3: inet addr:192.168.1.118 Bcast:192.168.1.255 Mask:255.255.255.0
[root@ops-server1 clustershell]# clush -w ops-server3,ops-server4 'ifconfig|grep "inet addr"|grep 192.168'
ops-server4: inet addr:192.168.1.108 Bcast:192.168.1.255 Mask:255.255.255.0
ops-server3: inet addr:192.168.1.118 Bcast:192.168.1.255 Mask:255.255.255.0

[root@ops-server1 ~]# clush -a hostname
ops-server2: ops-server2
ops-server3: ops-server3
ops-server4: ops-server4
[root@ops-server1 ~]# clush -b -a hostname
---------------
ops-server2
---------------
ops-server2
---------------
ops-server3
---------------
ops-server3
---------------
ops-server4
---------------
ops-server4
[root@ops-server1 ~]# clush -a "cat /etc/issue"
ops-server2: CentOS release 6.8 (Final)
ops-server2: Kernel \r on an \m
ops-server2:
ops-server4: CentOS release 6.8 (Final)
ops-server4: Kernel \r on an \m
ops-server4:
ops-server3: CentOS release 6.8 (Final)
ops-server3: Kernel \r on an \m
ops-server3:
[root@ops-server1 ~]# clush -b -a "cat /etc/issue"
---------------
ops-server[2-4] (3)
---------------
CentOS release 6.8 (Final)
Kernel \r on an \m

[root@ops-server1 ~]# clush -a -x ops-server4 hostname
ops-server3: ops-server3
ops-server2: ops-server2
[root@ops-server1 ~]# clush -a -x ops-server2,ops-server4 hostname
ops-server3: ops-server3

clush進行檔案或目錄分發:
--copy 表示從本地拷貝檔案或目錄到遠端叢集節點上,等於-c
--rcopy 表示從遠端叢集節點上拷貝檔案或目錄到本機上
--dest 前面表示本地要複製的檔案或目錄路徑,後面表示遠端機器的存放路徑。--dest後面可以空格跟目標路徑,也可以是=目標路徑。  比如--dest /tmp 等同於 --dest=/tmp

本地拷貝檔案到遠端節點上
[root@ops-server1 ~]# cat test.file
test1
test2
123456
[root@ops-server1 ~]# clush -g db -c /root/test.file --dest /root/
[root@ops-server1 ~]# clush -g db "cat /root/test.file"
ops-server2: test1
ops-server2: test2
ops-server2: 123456
ops-server3: test1
ops-server3: test2
ops-server3: 123456

[root@ops-server1 ~]# clush -w ops-server4 --copy test.file --dest /root/
[root@ops-server1 ~]# clush -w ops-server4 "cat /root/test.file"
ops-server4: test1
ops-server4: test2
ops-server4: 123456

本地拷貝目錄到遠端節點上(注意,這裡面拷貝目錄時,不需要跟引數-r)
[root@ops-server1 ~]# mkdir /root/huanqiu
[root@ops-server1 ~]# clush -g db -c /root/huanqiu --dest /root/
[root@ops-server1 ~]# clush -g db "ls -l /root/huanqiu"
ops-server2: total 0
ops-server3: total 0

比如遠端拷貝ops-server3和ops-server4節點上的/root/test到本機的/tmp目錄下
[root@ops-server1 tmp]# pwd
/tmp
[root@ops-server1 tmp]# clush -w ops-server3,ops-server4 --rcopy /root/test --dest=/tmp/
[root@ops-server1 tmp]# ll
-rw-r--r--. 1 root root 9 Nov 25 02:06 test.ops-server3
-rw-r--r--. 1 root root 19 Nov 25 02:06 test.ops-server4

將所有節點的/etc/passwd檔案拷貝到本機的/tmp目錄下
[root@ops-server1 tmp]# clush -a --rcopy /etc/passwd --dest=/tmp
[root@ops-server1 tmp]# ll
total 16
-rw-r--r--. 1 root root 901 Nov 25 02:04 passwd.ops-server2
-rw-r--r--. 1 root root 854 Nov 25 02:04 passwd.ops-server3
-rw-r--r--. 1 root root 854 Nov 25 02:04 passwd.ops-server4
-rw-r--r--. 1 root root 9 Nov 25 02:06 test.ops-server3
-rw-r--r--. 1 root root 19 Nov 25 02:06 test.ops-server4

由此可以發現,遠端拷貝檔案到本機後,會在檔名的後面打上主機名的標記!

另外注意一個引數:
--user=username,這個表示使用clush命令操作時,登陸ssh時使用的使用者。
比如:
ops-server1本機(root賬號)管理ops-server2節點機的wangshibo賬號下的操作,

首先做本機到wangshibo@ops-server2的ssh無密碼登陸的信任關係
[root@ops-server1 ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub wangshibo@ops-server2
wangshibo@ops-server2's password:
Now try logging into the machine, with "ssh 'wangshibo@ops-server2'", and check in:

.ssh/authorized_keys

to make sure we haven't added extra keys that you weren't expecting.

[root@ops-server1 ~]# ssh wangshibo@ops-server2
[wangshibo@ops-server2 ~]$

接著就可以進行遠端管控了。注意:--user引數要緊跟clush後面
[root@ops-server1 ~]# clush -w --user=wangshibo ops-server2 hostname
Usage: clush [options] command

clush: error: option -w: invalid value: '--user=wangshibo'
[root@ops-server1 ~]# clush --user=wangshibo -w ops-server2 hostname
ops-server2: ops-server2

[root@ops-server1 ~]# clush --user=wangshibo -w ops-server2 "echo 123456 > test"
[root@ops-server1 ~]# clush --user=wangshibo -w ops-server2 "cat test"
ops-server2: 123456

登陸ops-server2的wangshibo使用者下檢視:
[wangshibo@ops-server2 ~]$ ls
test
[wangshibo@ops-server2 ~]$ cat test
123456

===================================================================
由於clush是基於ssh和scp命令進行封裝的一個工具,預設的ssh埠如果不是22,那麼在執行clush命令的時候需要指明埠:
1)進行檔案傳輸時,                                           需要加 -o -P57891                      即大寫P
2)進行直接訪問(批量執行操作命令)時,       需要加 -o -p57891                      即小寫P

# clush -g virtual -o -P22222 -c /data/ntpcheck.sh --dest /data/
# clush -g virtual -o -p22222  /etc/init.d/nginx restart

相關文章