Zookeeper應用場景彙總(超詳細)

問北發表於2022-02-10

Zookeeper典型應用場景彙總

資料釋出與訂閱(配置中心)

釋出與訂閱模型,即所謂的配置中心,顧名思義就是釋出者將資料釋出到ZK節點上,供訂閱者動態獲取資料,實現配置資訊的集中式管理和動態更新。例如全域性的配置資訊、服務式服務框架的服務地址列表等就非常適合使用。

  • 應用中用到的一些配置資訊放到ZK上進行集中管理。這類場景通常是這樣的:應用在啟動的時候會主動來獲取一次配置,同時,在節點上註冊一個 Watcher,這樣一來,以後每次配置有更新的時候,都會實時通知到訂閱的客戶端,從而達到獲取最新配置資訊的目的。

  • 分散式搜尋服務中,索引的元資訊和伺服器叢集機器的節點狀態存放在ZK的一些指定節點,供各個客戶端訂閱使用。

  • 分散式日誌收集系統。這個系統的核心工作是收集分佈在不同機器的日誌。收集器通常按照應用來分配收集任務單元,因此需要在ZK上建立一個以應用名作為path的節點P,並將這個應用的所有機器ip,以子節點的形式註冊到節點P上,這樣一來就能夠實現機器變動的時候,能夠實時通知到收集器調整任務分配。

  • 系統中有些資訊需要動態獲取,並且會存在人工手動去修改這個資訊的場景。通常是暴露出介面,例如JMX介面,來獲取一些執行時的資訊。引入ZK之後,就不用自己實現一套方案了,只要將這些資訊存放到指定的ZK節點上即可。

注意:在上面提到的應用場景中,有個預設前提是:資料量很小,但是資料更新可能會比較快的場景。

負載均衡

這裡說的負載均衡是指軟負載均衡。在分散式環境中,為了保證高可用性,通常同一個應用或同一個服務的提供方都會部署多份,達到對等服務。而消費者就需要在這些對等的伺服器中選擇一個來執行相關的業務邏輯,其中比較典型的是訊息中介軟體中的生產者,消費者負載均衡。

訊息中介軟體中釋出者和訂閱者的負載均衡linkedin開源的Kafka和阿里開源的metaq(RocketMQ的前身)都是通過zookeeper來做到生產者、消費者的負載均衡。這裡以 metaq為例講下:

生產者負載均衡:

metaq傳送訊息的時候,生產者在傳送訊息的時候必須選擇一臺broker上的一個分割槽來傳送訊息,因此metaq在執行過程中,會把所有broker和對應的分割槽資訊全部註冊到ZK指定節點上,預設的策略是輪詢,生產者在通過ZK獲取分割槽列表之後,會按照brokerld和partition的順序排列組織成一個有序的分割槽列表,傳送的時候按照從頭到尾迴圈往復的方式選擇一個分割槽來傳送訊息。

消費負載均衡:

在消費過程中,一個消費者會消費一個或多個分割槽中的訊息,但是一個分割槽只會由一個消費者來消費。MetaQ的消費策略是:

  • 每個分割槽針對同一個group只掛載一個消費者。

  • 如果同一個group的消費者數目大於分割槽數目,則多出來的消費者將不參與消費。

  • 如果同一個qroup的消費者數目小於分割槽數目,則有部分消費者需要額外承擔消費任務。

在某個消費者故障或者重啟等情況下,其他消費者會感知到這一變化(通過zookeeper watch消費者列表),然後重新進行負載均衡,保證所有的分割槽都有消費者進行消費。

命名服務(Naming Service)

命名服務也是分散式系統中比較常見的一類場景。在分散式系統中,通過使用命名服務,客戶端應用能夠根據指定名字來獲取資源或服務的地址,提供者等資訊。被命名的實體通常可以是叢集中的機器,提供的服務地址,遠端物件等等。這些我們都可以統稱他們為名字(Name)。其中較為常見的就是一些分散式服務框架中的服務地址列表。通過呼叫ZK提供的建立節點的API,能夠很容易建立一個全域性唯一的path,這個path就可以作為一個名稱。

阿里開源的分散式服務框架Dubbo中使用ZooKeeper來作為其命名服務,維護全域性的服務地址列表。在Dubbo實現中:

服務提供者 

在啟動的時候,向ZK上的指定節點/dubbo/${serviceName}/providers目錄下寫入自己的URL地址,這個操作就完成了服務的釋出。

服務消費者 

啟動的時候,訂閱/dubbo/${serviceName}/providers目錄下的提供者URL地址,並向/dubbo/${serviceName}/consumers目錄下寫入自己的URL地址。

注意,所有向ZK上註冊的地址都是臨時節點,這樣就能夠保證服務提供者和消費者能夠自動感應資源的變化。
另外,Dubbo還有針對服務粒度的監控,方法是訂閱/dubbo/${serviceName}目錄下所有提供者和消費者的資訊。

分散式通知/協調

ZooKeeper中特有watcher註冊與非同步通知機制,能夠很好的實現分散式環境下不同系統之間的通知與協調,實現對資料變更的實時處理。使用方法通常是不同系統都對ZK上同一個znode進行註冊,監聽znode的變化(包括znode本身內容及子節點的),其中一個系統update了znode,那麼另一個系統能夠收到通知,並作出相應處理。

  • 另一種心跳檢測機制:檢測系統和被檢測系統之間並不直接關聯起來,而是通過zk上某個節點關聯,大大減少系統耦合。

  • 另一種系統排程模式:某系統由控制檯和推送系統兩部分組成,控制檯的職責是控制推送系統進行相應的推送工作。管理人員在控制檯做的一些操作,實際上是修改了ZK上某些節點的狀態,而ZK就把這些變化通知給他們註冊Watcher的客戶端,即推送系統,於是,作出相應的推送任務。

  • 另一種工作彙報模式:一些類似於任務分發系統,子任務啟動後,到zk來註冊一個臨時節點,並且定時將自己的進度進行彙報(將進度寫回這個臨時節點),這樣任務管理者就能夠實時知道任務進度。
    總之,使用zookeeper來進行分散式通知和協調能夠大大降低系統之間的耦合

叢集管理與Master選舉

叢集機器監控:

這通常用於那種對叢集中機器狀態,機器線上率有較高要求的場景,能夠快速對叢集中機器變化作出響應。這樣的場景中,往往有一個監控系統,實時檢測叢集機器是否存活。過去的做法通常是:監控系統通過某種手段(比如ping)定時檢測每個機器,或者每個機器自己定時向監控系統彙報"我還活著"。這種做法可行,但是存在兩個比較明顯的問題:

1、叢集中機器有變動的時候,牽連修改的東西比較多。
2、有一定的延時。

利用ZooKeeper有兩個特性,就可以實現另一種叢集機器存活性監控系統:
1、客戶端在節點x上註冊一個Watcher,那麼如果x的子節點變化了,會通知該客戶端。
2、建立EPHEMERAL型別的節點,一旦客戶端和伺服器的會話結束或過期,那麼該節點就會消失。

例如,監控系統在/clusterServers 節點上註冊一個Watcher,以後每動態加機器,那麼就往/clusterServers 下建立一個EPHEMERAL型別的節點:/clusterServers/${hostname},這樣,監控系統就能夠實時知道機器的增減情況,至於後續處理就是監控系統的業務了。

Master選舉:

Master是zookeeper中最為經典的應用場景了。

在分散式環境中,相同的業務應用分佈在不同的機器上,有些業務邏輯(例如一些耗時的計算,網路I/O處理),往往只需要讓整個叢集中的某一臺機器進行執行,其餘機器可以共享這個結果,這樣可以大大減少重複勞動,提高效能,於是這個master選舉便是這種場景下的碰到的主要問題。

利用ZooKeeper的強一致性,能夠保證在分散式高併發情況下節點建立的全域性唯一性,即:同時有多個客戶端請求建立/currentMaster 節點,最終一定只有一個客戶端請求能夠建立成功。利用這個特性,就能很輕易的在分散式環境中進行叢集Master選取了。

另外,這種場景演化一下,就是動態Master選舉。這就要用到EPHEMERAL SEQUENTIAL型別節點的特性了。
上文中提到,所有客戶端建立請求,最終只有一個能夠建立成功。在這裡稍微變化下,就是允許所有請求都能夠建立成功,但是得有個建立順序,於是所有的請求最終在ZK上建立結果的一種可能情況是這樣:/currentMaster/{sessionId}-1/currentMaster/{sessionId}-2/currentMaster/{sessionId}-3…. 每次選取序列號最小的那個機器作為Master,如果這個機器掛了,由於他建立的節點會馬上消失,那麼之後最小的那個機器就是Master了。

在搜尋系統中,如果叢集中每個機器都生成一份全量索引,不僅耗時,而且不能保證彼此之間索引資料一致。因此讓叢集中的Master來進行全量索引的生成,然後同步到叢集中其它機器。另外,Master選舉的容災措施是,可以隨時進行手動指定Master,就是說應用在ZK無法獲取master資訊時,可以通過比如http方式,從一個地方獲取Master。

在Hbase中,也是使用ZooKeeper來實現動態HMaster的選舉。在Hbase實現中,會在ZK上儲存一些ROOT表的地址和HMaster的地址,HReaionServer也會把自己以臨時節點(Ephemeral)的方式註冊到Zookeeper中,使得HMaster可以隨時感知到各個HRegionServer的存活狀態,同時,一旦HMaster出現問題,會重新選舉出一個HMaster來執行,從而避免了HMaster的單點問題。

分散式鎖

分散式鎖,這個主要得益於ZooKeeper為我們保證了資料的強一致性。鎖服務可以分為兩類,一個是保持獨佔,另一個是控制時序。

  • 所謂保持獨佔,就是所有試圖來獲取這個鎖的客戶端,最終只有一個可以成功獲得這把鎖。通常的做法是把zk上的一個znode看作是一把鎖,通過create znode的方式來實現。所有客戶端都去建立/distribute_lock 節點,最終成功建立的那個客戶端也即擁有了這把鎖。

  • 控制時序,就是所有試圖來獲取這個鎖的客戶端,最終都是會被安排執行,只是有個全域性時序了。做法和上面基本類似,只是這裡/distribute_lock 已經預先存在,客戶端在它下面建立臨時有序節點(這個可以通過節點的屬性控制:CreateMode.EPHEMERAL SEQUENTIAL來指定)。Zk的父節點(/distribute_lock)維持一份sequence,保證子節點建立的時序性,從而也形成了每個客戶端的全域性時序。

分散式佇列

佇列方面,簡單地講有兩種,一種是常規的先進先出佇列,另一種是要等到佇列成員聚齊之後的才統一按序執行。對於第一種先進先出佇列,和分散式鎖服務中的控制時序場景基本原理一致,這裡不再贅述。

第二種佇列其實是在FIFO佇列的基礎上作了一個增強。通常可以在/queue 這個znode下預先建立一個/queue/num 節點,並且賦值為n(或者直接給/queue賦值n),表示佇列大小,之後每次有佇列成員加入後,就判斷下是否已經到達佇列大小,決定是否可以開始執行了。這種用法的典型場景是,分散式環境中,一個大任務TaskA,需要在很多子任務完成(或條件就緒)情況下才能進行。這個時候,凡是其中一個子任務完成(就緒),那麼就去/taskList下建立自己的臨時時序節點(CreateMode.EPHEMERAL SEQUENTIAL),當/taskList 發現自己下面的子節點滿足指定個數,就可以進行下一步按序進行處理了。

29個Zookeeper面試題-帶答案

ITwalking,公眾號:BiggerBoy29個Zookeeper面試題超詳細(帶答案)

相關文章