redis cluster 故障後,主從位於不同節點的修復。

czxin788發表於2022-12-03

    今天機房有一臺物理機當機了,有一個虛擬機器192.168.1.122,其上有兩個redis 節點也不能用了。

    redis沒有備份,丟失的192.168.1.122節點只能重建。

    我找運維的人,分配了一個全新的虛擬機器,並且分配的ip的地址仍然是192.168.1.122。

    我在上面裝了兩個全新的redis,並且無資料:

/usr/local/redis/bin/redis-server /opt/cachecloud/conf/redis-cluster-6396.conf &
/usr/local/redis/bin/redis-server /opt/cachecloud/conf/redis-cluster-6397.conf &

    此時,這兩個redis還是獨立的例項,和原來的叢集沒有任何聯絡。

    在叢集內任意節點,執行cluster meet命令,將192.168.1.122:6396和 192.168.1.122:6397兩個例項加入到叢集裡面:

192.168.1.123:6387> cluster meet 192.168.1.122 6396
OK
192.168.1.123:6387> cluster meet 192.168.1.122 6397
OK

    檢視叢集狀態:

192.168.1.123:6387> cluster nodes
6bf77cfcd046681eef9c3d7f94a66709a4a691e4 :0 slave,fail,noaddr 9eb3af9feb3492514834b573260ed8e56419e3c5 1669974772279 1669974767266 5 disconnected
a227a5bef13fe9a33f9e472e6421b66a0a47d60f 192.168.1.122:6396 master - 0 1670075583027 0 connected
9eb3af9feb3492514834b573260ed8e56419e3c5 192.168.1.71:6387 master - 0 1670075580019 5 connected 0-5461
89d9854ee74c8546fad5da04c5a92492c86905d0 192.168.1.123:6387 myself,master - 0 0 2 connected 5462-10923
02a9161dab2bbffbd3066f49d22344356bf9ea33 192.168.1.71:6388 master - 0 1670075579015 4 connected 10924-16383
6b85f48692c226691f3980ad2f52ef103c4ef05e :0 slave,fail,noaddr 89d9854ee74c8546fad5da04c5a92492c86905d0 1669974770273 1669974763256 4 disconnected
5d1891df2da56a5fa9ec5b91905e9b3fe1ceba04 192.168.1.122:6397 master - 0 1670075582025 7 connected
261e6aa4e54d2725445849b525d4ef2be6c85764 192.168.1.123:6388 slave 02a9161dab2bbffbd3066f49d22344356bf9ea33 0 1670075584030 4 connected

    看到192.168.1.122:6396和192.168.1.122:6397加進來了,它們的角色都是master。

     

    接下來,我們把 192.168.1.122:6396和192.168.1.122:6397分別作為192.168.1.71:6387和192.168.1.123:6387的從節點。

192.168.1.122:6396> CLUSTER REPLICATE 9eb3af9feb3492514834b573260ed8e56419e3c5
OK
其中 9eb3af9feb3492514834b573260ed8e56419e3c5 為需要的主節點node id 
192.168.1.122:6396 為需要全換的主機
以下同理:
192.168.1.122:6397> CLUSTER REPLICATE 89d9854ee74c8546fad5da04c5a92492c86905d0
OK

    修改從為指定的主,結果如下:

cluster nodes
02a9161dab2bbffbd3066f49d22344356bf9ea33 192.168.1.71:6388 master - 0 1670077220086 4 connected 10924-16383
5d1891df2da56a5fa9ec5b91905e9b3fe1ceba04 192.168.1.122:6397 myself,slave 89d9854ee74c8546fad5da04c5a92492c86905d0 0 0 7 connected
9eb3af9feb3492514834b573260ed8e56419e3c5 192.168.1.71:6387 master - 0 1670077223093 5 connected 0-5461
261e6aa4e54d2725445849b525d4ef2be6c85764 192.168.1.123:6388 slave 02a9161dab2bbffbd3066f49d22344356bf9ea33 0 1670077224097 4 connected
a227a5bef13fe9a33f9e472e6421b66a0a47d60f 192.168.1.122:6396 slave 9eb3af9feb3492514834b573260ed8e56419e3c5 0 1670077219083 5 connected
89d9854ee74c8546fad5da04c5a92492c86905d0 192.168.1.123:6387 master - 0 1670077222092 2 connected 5462-10923

    可以看到正常了。

    但是上面的拓撲中,還是存在一個隱患,就是如果192.168.1.71當機後,其上的1和3兩個主節點都會丟失,存在極大的隱患。

    下面我們停掉192.168.1.71的1例項,讓192.168.1.122的上的1例項提升為主節點:

/usr/local/bin/redis-cli -h 192.168.1.71 -p 6387 -a '123' shutdown

    看到進行了主從切換,這樣的拓撲圖是安全的,不會出現一個機器當機,而丟失資料的情況。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/28916011/viewspace-2926609/,如需轉載,請註明出處,否則將追究法律責任。

相關文章