zookeeper使用和原理探究

加瓦一枚發表於2018-11-30

zookeeper使用和原理探究(一)

zookeeper介紹
zookeeper是一個為分散式應用提供一致性服務的軟體,它是開源的Hadoop專案中的一個子專案,並且根據google發表的<The Chubby lock service for loosely-coupled distributed systems>論文來實現的,接下來我們首先來安裝使用下這個軟體,然後再來探索下其中比較重要一致性演算法。  

zookeeper安裝和使用
zookeeper的安裝基本上可以按照 http://hadoop.apache.org/zookeeper/docs/current/ zookeeperStarted.html 這個頁面上的步驟完成安裝,這裡主要介紹下部署一個叢集的步驟,因為這個官方頁面似乎講得並不是非常詳細(Running Replicated Zookeeper)。

由於手頭機器不足,所以在一臺機器上部署了3個server,如果你手頭也比較緊,也可以這麼做。那麼我建了3個資料夾,如下
server1   server2   server3

然後每個資料夾裡面解壓一個zookeeper的下載包,並且還建了幾個資料夾,總體結構如下,最後那個是下載過來壓縮包的解壓檔案
data dataLog logs zookeeper-3.3.2

那麼首先進入data目錄,建立一個myid的檔案,裡面寫入一個數字,比如我這個是server1,那麼就寫一個1,server2對應myid檔案就寫入2,server3對應myid檔案就寫個3

然後進入zookeeper-3.3.2/conf目錄,那麼如果是剛下過來,會有3個檔案,configuration.xml, log4j.properties,zoo_sample.cfg,這3個檔案我們首先要做的就是在這個目錄建立一個zoo.cfg的配置檔案,當然你可以把zoo_sample.cfg檔案改成zoo.cfg,配置的內容如下所示: 
tickTime=2000
initLimit=5
syncLimit=2
dataDir=xxxx/zookeeper/server1/data
dataLogDir=xxx/zookeeper/server1/dataLog
clientPort=2181

server.1=127.0.0.1:2888:3888
server.2=127.0.0.1:2889:3889
server.3=127.0.0.1:2890:3890

標紅的幾個配置應該官網講得很清楚了,只是需要注意的是clientPort這個埠如果你是在1臺機器上部署多個server,那麼每臺機器都要不同的clientPort,比如我server1是2181,server2是2182,server3是2183,dataDir和dataLogDir也需要區分下。 

最後幾行唯一需要注意的地方就是 server.X 這個數字就是對應 data/myid中的數字。你在3個server的myid檔案中分別寫入了1,2,3,那麼每個server中的zoo.cfg都配server.1,server.2,server.3就OK了。因為在同一臺機器上,後面連著的2個埠3個server都不要一樣,否則埠衝突,其中第一個埠用來叢集成員的資訊交換,第二個埠是在leader掛掉時專門用來進行選舉leader所用。

進入zookeeper-3.3.2/bin 目錄中,./zkServer.sh start啟動一個server,這時會報大量錯誤?其實沒什麼關係,因為現在叢集只起了1臺server,zookeeper伺服器端起來會根據zoo.cfg的伺服器列表發起選舉leader的請求,因為連不上其他機器而報錯,那麼當我們起第二個zookeeper例項後,leader將會被選出,從而一致性服務開始可以使用,這是因為3臺機器只要有2臺可用就可以選出leader並且對外提供服務(2n+1臺機器,可以容n臺機器掛掉)。

接下來就可以使用了,我們可以先通過 zookeeper自帶的客戶端互動程式來簡單感受下zookeeper到底做一些什麼事情。進入zookeeper-3.3.2/bin(3個server中任意一個)下,./zkCli.sh –server 127.0.0.1:2182,我連的是開著2182埠的機器。

那麼,首先我們隨便打個命令,因為zookeeper不認識,他會給出命令的help,如下圖  
   
ls(檢視當前節點資料),
ls2(檢視當前節點資料並能看到更新次數等資料) ,
create(建立一個節點) ,
get(得到一個節點,包含資料和更新次數等資料),
set(修改節點)
delete(刪除一個節點)

通過上述命令實踐,我們可以發現,zookeeper使用了一個類似檔案系統的樹結構,資料可以掛在某個節點上,可以對這個節點進行刪改。另外我們還發現,當改動一個節點的時候,叢集中活著的機器都會更新到一致的資料。 

zookeeper的資料模型
在簡單使用了zookeeper之後,我們發現其資料模型有些像作業系統的檔案結構,結構如下圖所示



(1)     每個節點在zookeeper中叫做znode,並且其有一個唯一的路徑標識,如/SERVER2節點的標識就為/APP3/SERVER2
(2)     Znode可以有子znode,並且znode裡可以存資料,但是EPHEMERAL型別的節點不能有子節點
(3)     Znode中的資料可以有多個版本,比如某一個路徑下存有多個資料版本,那麼查詢這個路徑下的資料就需要帶上版本。
(4)     znode 可以是臨時節點,一旦建立這個 znode 的客戶端與伺服器失去聯絡,這個 znode 也將自動刪除,Zookeeper 的客戶端和伺服器通訊採用長連線方式,每個客戶端和  伺服器通過心跳來保持連線,這個連線狀態稱為 session,如果 znode 是臨時節點,這個 session 失效,znode 也就刪除了
(5)     znode 的目錄名可以自動編號,如 App1 已經存在,再建立的話,將會自動命名為 App2 
(6)     znode 可以被監控,包括這個目錄節點中儲存的資料的修改,子節點目錄的變化等,一旦變化可以通知設定監控的客戶端,這個功能是zookeeper對於應用最重要的特性,通過這個特性可以實現的功能包括配置的集中管理,叢集管理,分散式鎖等等。  


Zookeeper的使用主要是通過建立其jar包下的Zookeeper例項,並且呼叫其介面方法進行的,主要的操作就是對znode的增刪改操作,監聽znode的變化以及處理。

以下為主要的API使用和解釋

//建立一個Zookeeper例項,第一個引數為目標伺服器地址和埠,第二個引數為Session超時時間,第三個為節點變化時的回撥方法
ZooKeeper zk = new ZooKeeper("127.0.0.1:2181"500000,new Watcher() {
           
// 監控所有被觸發的事件
             public void process(WatchedEvent event) {
           
//dosomething
           }
      });
//建立一個節點root,資料是mydata,不進行ACL許可權控制,節點為永久性的(即客戶端shutdown了也不會消失)
zk.create("/root""mydata".getBytes(),Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);

//在root下面建立一個childone znode,資料為childone,不進行ACL許可權控制,節點為永久性的
zk.create("/root/childone","childone".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);

//取得/root節點下的子節點名稱,返回List<String>
zk.getChildren("/root",true);

//取得/root/childone節點下的資料,返回byte[]
zk.getData("/root/childone"truenull);

//修改節點/root/childone下的資料,第三個引數為版本,如果是-1,那會無視被修改的資料版本,直接改掉
zk.setData("/root/childone","childonemodify".getBytes(), -1);

//刪除/root/childone這個節點,第二個引數為版本,-1的話直接刪除,無視版本
zk.delete("/root/childone"-1);
      
//關閉session
zk.close();

 
Zookeeper的主流應用場景實現思路(除去官方示例) 

(1)配置管理
集中式的配置管理在應用叢集中是非常常見的,一般商業公司內部都會實現一套集中的配置管理中心,應對不同的應用叢集對於共享各自配置的需求,並且在配置變更時能夠通知到叢集中的每一個機器。

Zookeeper很容易實現這種集中式的配置管理,比如將APP1的所有配置配置到/APP1 znode下,APP1所有機器一啟動就對/APP1這個節點進行監控(zk.exist("/APP1",true)),並且實現回撥方法Watcher,那麼在zookeeper/APP1 znode節點下資料發生變化的時候,每個機器都會收到通知,Watcher方法將會被執行,那麼應用再取下資料即可(zk.getData("/APP1",false,null));

以上這個例子只是簡單的粗顆粒度配置監控,細顆粒度的資料可以進行分層級監控,這一切都是可以設計和控制的。     
(2)叢集管理 
應用叢集中,我們常常需要讓每一個機器知道叢集中(或依賴的其他某一個叢集)哪些機器是活著的,並且在叢集機器因為當機,網路斷鏈等原因能夠不在人工介入的情況下迅速通知到每一個機器。

Zookeeper同樣很容易實現這個功能,比如我在zookeeper伺服器端有一個znode/APP1SERVERS,那麼叢集中每一個機器啟動的時候都去這個節點下建立一個EPHEMERAL型別的節點,比如server1建立/APP1SERVERS/SERVER1(可以使用ip,保證不重複)server2建立/APP1SERVERS/SERVER2,然後SERVER1SERVER2watch /APP1SERVERS這個父節點,那麼也就是這個父節點下資料或者子節點變化都會通知對該節點進行watch的客戶端。因為EPHEMERAL型別節點有一個很重要的特性,就是客戶端和伺服器端連線斷掉或者session過期就會使節點消失,那麼在某一個機器掛掉或者斷鏈的時候,其對應的節點就會消失,然後叢集中所有對/APP1SERVERS進行watch的客戶端都會收到通知,然後取得最新列表即可。

另外有一個應用場景就是叢集選master,一旦master掛掉能夠馬上能從slave中選出一個master,實現步驟和前者一樣,只是機器在啟動的時候在APP1SERVERS建立的節點型別變為EPHEMERAL_SEQUENTIAL型別,這樣每個節點會自動被編號,例如          

zk.create("/testRootPath/testChildPath1","1".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);
        
zk.create(
"/testRootPath/testChildPath2","2".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);
        
zk.create(
"/testRootPath/testChildPath3","3".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);
        
// 建立一個子目錄節點
zk.create("/testRootPath/testChildPath4","4".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);

System.out.println(zk.getChildren(
"/testRootPath"false));

 列印結果:[testChildPath10000000000, testChildPath20000000001, testChildPath40000000003, testChildPath30000000002]我們預設規定編號最小的為master,所以當我們對/APP1SERVERS節點做監控的時候,得到伺服器列表,只要所有叢集機器邏輯認為最小編號節點為master,那麼master就被選出,而這個master當機的時候,相應的znode會消失,然後新的伺服器列表就被推送到客戶端,然後每個節點邏輯認為最小編號節點為master,這樣就做到動態master選舉。


總結 

我們初步使用了一下zookeeper並且嘗試著描述了幾種應用場景的具體實現思路,接下來的文章,我們會嘗試著去探究一下zookeeper的高可用性與leaderElection演算法。

參考http://www.ibm.com/developerworks/cn/opensource/os-cn-zookeeper/

      http://hadoop.apache.org/zookeeper/docs/current/

      http://rdc.taobao.com/team/jm/archives/448

相關文章