mysql主從同步(5)-同步延遲狀態考量(seconds_behind_master和pt-heartbea)

散盡浮華發表於2017-01-11

 

一般情況下,我們是通過"show slave status \G;"提供的Seconds_Behind_Master值來衡量mysql主從同步的延遲情況。具體說明見:mysql主從同步(4)-Slave延遲狀態監控,這種方法在大多數情況下確實是可行的。但是經驗告訴我,僅僅依靠Seconds_Behind_Master的值來監測主從同步資料是否延遲是絕對不可靠的!!!

曾經遇到過的一個坑:
Mysql主從環境部署後,剛開始主從資料同步是沒問題的,也是通過監控Seconds_Behind_Master的值來判斷同步是否延遲。但是執行一段時間後,突然有一天發現,主庫上寫入新資料後,從庫並沒有按時同步過來!!於是,立刻在從庫上執行"show slave status \G;"發現Seconds_Behind_Master為0 ,並且Slave_IO_Running和Slave_SQL_Running執行緒狀態都是YES也就是說從庫到主庫的連線還在,沒有斷開!但是主庫上的變更資料就是長時間無法同步到從庫上。如果沒有人為干預,直到一個小時以後,從庫才會自動重新連線主庫,進而才繼續同步主庫的變更
發生這種情況時,通過一般的正常監控方式是不會發現從庫有資料延遲。由此可見,僅僅通過Seconds_Behind_Master=0來判斷同步是否延遲顯然是不夠滴.........

發現這個問題以後,我們人工干預的操作只是需要在從庫上執行下面兩步重新複製就能解決此問題:
mysql> stop slave;
mysql> start slave;

重新執行復制後,要儘快修改slave_net_timeout這個引數

之所以要等1小時才能重新同步,是因為slave_net_timeout這個引數預設的就是3600s,它是設定在多少秒沒收到主庫傳來的Binary Logs events之後,從庫認為網路超時,Slave IO執行緒會重新連線主庫。

mysql> show variables like 'slave_net_timeout';
+-------------------+-------+
| Variable_name     | Value |
+-------------------+-------+
| slave_net_timeout | 3600  |
+-------------------+-------+
1 row in set (0.00 sec)

如果在部署mysql主從同步的時候,沒有在從庫這邊設定好slave_net_timeout這個引數,遇到上面的情況,它就會按照預設的3600s(一小時)採取自動重新連線主庫,然後才能繼續同步主庫的變更。這個引數不能設定太大,太大會造成資料庫延遲或者主備庫直接的連結異常不能及時發現但是設定太小又會造成主庫沒有資料更新時頻繁重連。
至於slave_net_timeout這個引數究竟設定多少,要根據自己的mysql主庫資料更新的頻繁程度:主庫資料更新頻繁的,就將這個引數值設小點,更新不頻繁就設大點。
一般這個引數設定5s、10s、15s、20s、30s等等。

設定方法:
直接登陸從庫的mysql線上修改:

mysql> set global slave_net_timeout = 5;
Query OK, 0 rows affected, 1 warning (0.00 sec)

mysql> show variables like 'slave_net_timeout';
+-------------------+-------+
| Variable_name     | Value |
+-------------------+-------+
| slave_net_timeout | 5     |
+-------------------+-------+
1 row in set (0.01 sec)

或者在從庫的myc.nf裡新增:
[root@slave-server ~]# cat /usr/local/mysql/my.cnf
....
[mysqld]
.....
slave_net_timeout = 5
[root@slave-server ~]# /etc/init.d/mysql restart

因此,將這個引數設定恰當後,遇到上面問題的時候,從庫就會按照設定的時間去主動重新連線主庫同步資料,就不需要人工干預。

當然,上述場景是非常特殊的,一般出現的概率比較小,但是作為運維人員,我們非常有必要搞清楚該怎麼應對這種情況。這就需要我們要更加深入的吃透MySQL replication重試機制。

接下來基於mysql主從複製原理來分析這一現象
MySQL的Replication是區別其他資料庫很關鍵的地方,也是可擴充套件性和高可用的基礎。它本身已經非常智慧化,只需要我們呼叫Change Master指定Binlog 檔名和偏移位置就可以搭建從主庫到備庫的複製關係。
MySQL複製執行緒會自動將目前複製位置記錄下來,在主備複製中斷的時候自動連上主庫,並從上次中斷的位置重新開始複製。這些操作都是全自動化的,不需要人為的干預。這給了我們運維人員帶來了很多便利,同時也隱藏了很多細節。要真正的理解前面問題的真相以及怎麼解決這個問題,我們還是需要真正的理解MySQL複製的原理。

1)Mysql主從複製的動作是“推”還是“拉”
MySQL的複製是“推”的,而不是“拉”的。
“拉”是指MySQL的備庫不斷的迴圈詢問主庫是否有資料更新,這種方式資源消耗多,並且效率低。
“推”是指MySQL的主庫在自己有資料更新的時候推送這個變更給備庫,這種方式只有在資料有變更的時候才會發生互動,資源消耗少。
顯而易見,“推”的方式更加符合程式執行的節能原則。

那麼MySQL具體是怎麼“推”的列呢?
實際上備庫在向主庫申請資料變更記錄的時候,需要指定從主庫Binlog的哪個檔案(MASTER_LOG_FILE)的具體多少個位元組偏移位置(MASTER_LOG_POS)。對應的,主庫會啟動一個Binlog dump的執行緒,將變更的記錄從這個位置開始一條一條的發給備庫。備庫一直監聽主庫過來的變更,接收到一條,才會在本地應用這個資料變更。

2)原因解析
從上面的分析,我們可以大致猜到為什麼 show slave status 顯示一切正常,但是實際上主庫的變更都無法同步到備庫上來:
出現問題的時候,Binlog dump程式被kill掉了。而備庫作為監聽的一方,它一直沒有收到任何變更,它會認為主庫上長時間沒有任何變更,導致沒有變更資料推送過來。
備庫是無法判斷主庫上對應的Binlog dump執行緒到底是意外終止了,還是長時間沒有任何資料變更的。所以,對這兩種情況來說,備庫都顯示為正常。

所以該問題的關鍵在於:
主庫Binlog dump執行緒kill的訊息由於網路堵塞或者其他原因無法傳送到備庫,而備庫卻認為主庫上的資料給有變更,因為雙方資料產生了差異。
而備庫只能在預設的3600s後主動地重新去連線主庫,屆時它才會發現主庫的資料有變動了,才會自動同步過來,這是需要等待很長時間。

3)問題避免
基於上面的分析,可以知道MySQL在這種情況下確實無法避免,那麼有哪些辦法可以避開:
   1--被動處理:修改延遲的監控方法,發現問題及時處理。
   2--主動預防:正確設定--master-retry-count ,--master-connect-retry ,--slave-net-timeout 複製重試引數。

   1--被動處理
   MySQL的延遲監控大部分直接採集show slave status中的Seconds_Behind_Master 。
   那麼像上面說的這種情況下, Seconds_Behind_Master就無法用來真實的衡量主備之間的複製延遲了。
   推薦使用Percona提供的監控方案(參考:mysql主從同步(3)-percona-toolkit工具(資料一致性監測、延遲監控)使用梳理

   2--主動預防
   除了手動在從庫上stop slave和start slave重新執行復制後,還需要指定三個引數,用於複製執行緒重連主庫,分別是
   master-retry-count:連線重試的次數。
   master-connect-retry:連線失敗後等待的秒數
   slave-net-timeout:上面已介紹
   其中 master-connect-retry 和 master-retry-count 需要在 Change Master 搭建主備複製時指定,而 slave-net-timeout 是一個全域性變數,可以在 MySQL 執行時線上設定。
   不過要注意的是:master-connect-retry和master-retry-count引數在Mysql5.6版本里就被去除了,所以Mysql5.6版本及更高版本就只設定slave-net-timeout引數即可。

  具體的重試策略為:
  備庫過了slave-net-timeout秒還沒有收到主庫來的資料,它就會開始第一次重試。然後每過 master-connect-retry 秒,備庫會再次嘗試重連主庫。直到重試了 master-retry-count 次,它才會放棄重試。如果重   試的過程中,連上了主庫,那麼它認為當前主庫是好的,又會開始 slave-net-timeout 秒的等待。

  slave-net-timeout 的預設值是3600 秒, master-connect-retry預設為60秒, master-retry-count預設為86400次。
  也就是說,如果主庫一個小時都沒有任何資料變更傳送過來,備庫才會嘗試重連主庫。
  這就是為什麼我遇到場景下,一個小時後,備庫才會重連主庫,繼續同步資料變更的原因。
  這樣的話,如果你的主庫上變更比較頻繁,可以考慮將slave-net-timeout設定的小一點,避免主庫 Binlog dump 執行緒 終止了,無法將最新的更新推送過來。
  當然 slave-net-timeout 設定的過小也有問題,這樣會導致如果主庫的變更確實比較少的時候,備庫頻繁的重新連線主庫,造成資源浪費。

相關文章