女朋友也能看懂的Zookeeper分散式鎖原理

深夜裡的程式猿發表於2019-04-10

前言

關於分散式鎖,在網際網路行業的使用場景還是比較多的,比如電商的庫存扣減,秒殺活動,叢集定時任務執行等需要程式互斥的場景。而實現分散式鎖的手段也很多,大家比較常見的就是redis跟zookeeper,今天我們主要介紹的是基於zookeeper實現的分散式鎖。

這篇文章主要借用Curator框架對zk分散式鎖的實現思路,大家理解了以後完全可以自己手動實現一遍,但是在工作中還是建議使用成熟的開源框架,很多坑別人已經幫我們踩好了,除非萬不得已,需要高度定製符合自己專案的需求的時候,才開始自行封裝吧。

正文

zookeeper簡單介紹

既然是基於zookeeper的分散式鎖,首先肯定要對這個zookeeper有一定了解,這裡就不過多的進行講解,只對其跟分散式鎖有關聯的特性做一個簡單的介紹,更多詳細的功能特性大家可以參閱官方文件。

zookeeper維護著類似檔案系統的資料結構,它總共有四種型別的節點

女朋友也能看懂的Zookeeper分散式鎖原理

  • PERSISTENT:持久化的節點。一旦建立後,即使客戶端與zk斷開了連線,該節點依然存在。
  • PERSISTENT_SEQUENTIAL:持久化順序編號節點。比PERSISTENT節點多了節點自動按照順序編號。
  • EPHEMERAL:臨時節點。當客戶端與zk斷開連線之後,該節點就被刪除。
  • EPHEMERAL_SEQUENTIAL:臨時順序編號節點。比EPHEMERAL節點多了節點自動按照順序編號。(分散式鎖實現使用該節點型別)
Curator實現分散式鎖原理

好,當我們簡單瞭解了zk的節點型別以後,現在正式的分析Curator分散式鎖的實現原理。這裡我們定義了一個“/curator_lock”鎖節點用來存放相關客戶端建立的臨時順序節點。

假設兩個客戶端ClientA跟ClientB同時去爭奪一個鎖,此時ClientA先行一步獲得了鎖,那麼它將會在我們的zk上建立一個“/curator_lock/xxxxx-0000000000”的臨時順序節點。

女朋友也能看懂的Zookeeper分散式鎖原理

接著它會拿到“/curator_lock/”鎖節點下的所有子節點,因為這些節點是有序的,這時候會判斷它所建立的節點是否排在第一位(也就是序號最小),由於ClientA是第一個建立節點的的客戶端,必然是排在第一位,所以它也就拿到了鎖。

[zk: localhost:2182(CONNECTED) 4] ls /curator_lock
[_c_f3f38067-8bff-47ef-9628-e638cfaad77e-lock-0000000000]
複製程式碼

這個時候ClientB也來了,按照同樣的步驟,先是在“/curator_lock/”下建立一個臨時順序節點“/curator_lock/xxxxx-0000000001”,接著也是獲得該節點下的所有子節點資訊,並比對自己生成的節點序號是否最小,由於此時序號最小的節點是ClientA建立的,並且還沒釋放掉,所以ClientB自己就拿不到鎖。

女朋友也能看懂的Zookeeper分散式鎖原理

[zk: localhost:2182(CONNECTED) 4] ls /curator_lock
[_c_2a8198e4-2039-4a3c-8606-39c65790d637-lock-0000000001,
_c_f3f38067-8bff-47ef-9628-e638cfaad77e-lock-0000000000]

複製程式碼

既然ClientB拿不到鎖,也不會放棄,它會對自己的前一個節點加上監聽器(zk提供的api實現),只要監聽到前一個節點被刪除了,也就是釋放了鎖,就會馬上重新執行獲取鎖的操作。

當後面的ClientC,ClientD...過來的時候也是如此,變化的只是節點上的編號,它會根據Client連線的數量而不斷增加。

可能大家還會擔心,萬一我的獲取到鎖的客戶端當機了怎麼辦,會不會不釋放鎖?其實上面已經解答了這個問題,由於Curator使用的是臨時順序節點來實現的分散式鎖,只要客戶端與zk連線斷開,該節點也就消失了,相當於釋放了鎖。

下面程式碼展示了Curator的基本使用方法,僅作為參考例項,請勿在生產環境使用的這麼隨意。

CuratorFramework client = CuratorFrameworkFactory.newClient("127.0.0.1:2182",
                5000,10000,
                new ExponentialBackoffRetry(1000, 3));
        client.start();
        InterProcessMutex interProcessMutex = new InterProcessMutex(client, "/curator_lock");
        //加鎖
        interProcessMutex.acquire();
        
        //業務邏輯
        
        //釋放鎖
        interProcessMutex.release();
        client.close();
    
複製程式碼

總結

我們在搞懂了原理之後,就可以拋棄Curator,自己動手實現一個分散式鎖了,相信大家實現基本的功能都是沒問題的,但是要做到生產級別,可能還是要在細節上下功夫,比如說一些異常處理,效能優化等因素。

女朋友也能看懂的Zookeeper分散式鎖原理

微信公眾號《深夜裡的程式猿》 - 分享最乾的乾貨

相關文章