背景
- 我們的業務共使用11臺(阿里雲)伺服器,使用SpringcloudAlibaba構建微服務叢集,共計60個微服務,全部註冊在同一個Nacos叢集
- 流量轉發路徑: nginx->spring-gateway>業務微服務
- 使用的版本如下:
spring-boot.version:2.2.5.RELEASE
spring-cloud.version:Hoxton.SR3
spring-cloud-alibaba.version:2.2.1.RELEASE
java.version:1.8
案發
- 春節放假期間,收到業務反饋,網頁報錯服務未找到(gateway找不到服務的提示).
- 檢視nacos叢集列表,發現個別服務丟失(下線).
- 這個問題每幾天出現一次,出現時間不固定,每次掉線的服務像是隨機選的幾個.
- 服務手動kill+restart後能穩定執行2-3天
排查和解決
懷疑物件一:伺服器記憶體爆了
1.進阿里雲控制檯檢視故障機器近期的各項指標,但是發現故障機器的指標有重要的幾項丟失,記憶體使用率,cpu使用率,系統負載均不顯示
2.控制檯看不了只好進伺服器內檢視各指標
free -m
檢視記憶體,無異常
3.提交阿里工單,授權阿里工程師幫忙修復控制檯顯示問題,懷疑這個問題對業務有影響
4.控制檯修復後掉線問題依然存在
懷疑物件二:CPU滿載
能感覺到執行命令很流暢,所以感覺不是這個原因, top
檢視後很正常
懷疑物件三:磁碟滿了
雖然機率很小,但是看一下,du -sh *
發現磁碟容量還能用到公司倒閉
懷疑物件四:網路有問題
- 伺服器那三個基本故障暫時排除後,最大懷疑物件就是網路,畢竟服務掉線肯定是服務端一段時間內接收不到客戶端心跳包,所以把客戶端踢下線了.
- 透過
telnet
,mtr -n *.*.*.*
,netstat -nat |grep "TIME_WAIT" | wc -l
這些命令也只能看個大概. echo "1" > /proc/sys/net/ipv4/tcp_tw_reuse
修改核心引數,開啟TIME_WAIT socket複用能力,提升例項的網路傳送請求效能.- 檢視nacos客戶端(微服務)的日誌,在前面案發裡提到沒有日誌記錄
懷疑物件五:Nacos叢集服務端故障
- 檢視nacos叢集部署的那幾臺伺服器,檢視伺服器基礎指標(記憶體,cpu,磁碟等),未發現異常(畢竟還有幾十個微服務都很正常工作)
- 檢視nacos服務端日誌,發現確實有主動下線服務操作,那就奇怪了,這個機器上的有些服務還在正常工作,為什麼會隨機下線幾個服務呢?
懷疑物件六:微服務佔用資源太多
後來仔細想想,這個懷疑物件是不是有點離譜了?因為部署指令碼都是同一個,而且負載均衡也是一樣的,但其他機器的這個服務都好好的.
1.調大每個微服務的記憶體佔用
2.新增堆疊列印
3.等待一段時間後,異常依然存在,並且,沒有堆疊列印???因為程式好好的並沒退出!
4.google為什麼nacos服務掉線?找到一篇看起來極其靠譜的文章!
5.上文提到我使用的springcloud版本,恰好這個版本的nacos-client版本就是1.4.1,於是立馬測試升級
6.觀察幾天後,發現問題依舊,只能將探查方向繼續轉回微服務本身.
7.使用arthas進行勘測各項指標,發現所有正常的服務各指標均正常.
8.想到服務掉線大機率是因為心跳包丟失,懷疑是心跳執行緒因為某些原因被殺死了.
9.翻看nacos-client原始碼,找到心跳函式(nacos2.x不是這個),使用arthas監聽心跳包,嘗試能找到心跳丟失的證據,貼上當時的記錄
10.當異常再次發生......arthas監聽卡死........
11.無奈更換思路,寫一個監聽服務掉線的程式,期望可以在工作時間內及時獲取到異常
12.終於在工作時間捕獲到異常,第一時間進入伺服器內檢視情況,
13.確認伺服器基礎項沒問題後,使用arthas檢視服務程式堆疊情況,但是arthas無法進入程式!!!
14.用jstat檢視GC情況,顯示很正常
15.用jmap/jstack輸出堆疊jstack -l 25944 >heap.txt
,但是提示無法進入程式,無奈使用新增-F(這個引數的堆疊少了很多資訊),jstack -F -l 25944 >heap.txt
16.檢視堆疊檔案,上萬行記錄,眼都看花了,但是沒有死鎖沒有發現異常
17.此時發現監聽程式提示服務上線了???!!!檢查後發現確實掉線的幾個微服務自動恢復了,心想這就難排查了.
18.嘗試復現BUG,此時時間離第一次案發已經過去一週多,必須儘快處理好這個BUG,否則可能得離職了...
19.當第二次發生異常的時候,使用同樣的方式,arthas無法進入->...->jstack輸出堆疊,奇蹟發生了,服務又恢復正常了
20.思考/猜測:因為jvm死了(假死),所以導致程式中的一切內容,包括心跳執行緒,日誌等,都hold住.
20.Google一番,終於找到一個極其靠譜的回答
21.連忙檢視對比幾個機器的核心版本號uname -r
22.看到了吧,那個低版本的就是故障機器
23.聯絡阿里雲提交工單
24.升級完核心並重啟後,觀察兩天至今,這個問題不存在了,誰能想到這問題居然是因為Linux核心的BUG引起的,不得不佩服第一個發現這個BUG的大佬
完結感言
這個問題折磨了一週多,每日如鯁在喉!除錯過程也是苦樂參半,樂的是突然有了除錯思路,苦的是思路是一條死衚衕,還好最終結果是滿意的.
作為一名程式設計師,還是要時刻保持一顆探索的心,學海無涯!
2023-02-03 記於深圳