一次容器MySQL的效能問題排查
最近兩天一套生產MySQL叢集出現了效能問題。業務側的同事通過pinpoint監控,發現某幾個時間點出現大量的超時/慢SQL。
我們通過dodba監控能看到慢查詢集中在幾秒鐘內,而不是一直都慢,當時的活動執行緒數也有飆升。
首先懷疑是否是某個賬號的定時任務。
對慢查詢日誌中賬號/庫名的出現次數進行統計:
也就是說,業務較為繁忙的庫都出現了慢查詢。更進一步檢視,會發現大量主鍵查詢、insert操作都很慢。
並且出現的時間也不是完全規律性的。因此排除了定時任務的可能性。
對資源使用情況進行分析,CPU和記憶體都在正常範圍內,頻繁出現磁碟使用率100%的問題。
通過prometheus看到所在物理機上各個容器的CPU和記憶體使用率正常,但某個容器的“容器交換空間使用量”存在波動,且波形與我們的效能問題基本吻合。
找到對應的同事詢問啟動時間,與問題開始的時間也能對上,算是基本確認原因了。
由於這是一個日誌收集的元件,且不能進行限速,找領導申請停的話大概率也是不同意的,暫定資料庫問題的處理方式為:
-
擇機將MGR叢集的主節點切換到其他不繁忙的物理機上
-
申請停機視窗,將該套MySQL遷移到物理機上,避免資源爭用造成問題
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/26451536/viewspace-2845254/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 一次快取效能問題排查快取
- 使用 nsenter 排查容器網路問題
- 記一次oom問題排查OOM
- 記錄一次問題排查
- 記一次排查CPU高的問題
- VictoriaMetrics常見效能問題排查
- JAVA死鎖排查-效能測試問題排查思路Java
- 記一次 Laravel MethodNotAllowedHttpException 問題排查LaravelHTTPException
- 記一次OOM問題排查過程OOM
- 記一次線上FGC問題排查GC
- 【問題排查篇】一次業務問題對 ES 的 cardinality 原理探究
- 一次線上問題的排查解決過程
- 一次線上問題排查所引發的思考
- 記一次棧溢位異常問題的排查
- 一次線上CPU高的問題排查實踐
- 一次ygc越來越慢的問題排查過程GC
- 如何快速排查Linux伺服器效能問題Linux伺服器
- 從一次問題排查聊聊問什麼要懂原理
- mysql啟動不了,mysql連線不上,問題排查MySql
- 記一次線上崩潰問題的排查過程
- 線上問題排查:記一次 Redis Cluster Pipeline 導致的死鎖問題Redis
- 記一次 Kafka 重啟失敗問題排查Kafka
- 一次IOS通知推送問題排查全過程iOS
- 記一次線上websocket返回400問題排查Web
- 記一次SparkStreaming不產生新的batchJob的問題排查SparkBAT
- MySQL之 從複製延遲問題排查MySql
- 記一次神奇的Mysql死鎖排查MySql
- mysql 字符集造成的效能問題MySql
- 記一次協助排查許可權問題的經歷
- 一次郵件傳送協議SMTP問題排查協議
- Arthas常用功能及一次線上問題排查
- 記一次線上報錯日誌問題排查
- 排查Mysql突然變慢的一次過程MySql
- java問題排查Java
- 框架問題排查框架
- 一次IO效能問題的發現過程
- 在K8S中,如果容器沒有bash命令,如何進⼊容器排查問題?K8S
- 安卓端出現https請求失敗的一次問題排查安卓HTTP