問題描述
在最近的後臺服務中,新增將某個指令的請求資料落盤儲存的功能。在具體實現時,採用成員變數來儲存請求訊息代理頭,在接收響應以及訊息管理類釋放時進行銷燬。測試反饋,該服務偶發崩潰。
問題分析
測試環境上執行的是rel版程式,由於在編譯時去掉了除錯資訊(-g)以及開啟O3級別優化,從崩潰dump的堆疊上,只看到程式崩潰的呼叫棧,函式入參等被優化掉,由於此處沒有打日誌,只能想其他辦法來複現。猜測是重複釋放指標導致的崩潰,接下來繼續分析。
從rel
版本的呼叫棧上看,只看見最後銷燬的函式呼叫,而在實際程式碼中,有兩處銷燬的函式呼叫入口,為什麼在dump中看到的呼叫棧順序與實際程式碼不一致呢?猜測是開啟O3優化,將函式內聯。
做了以下實驗來分析,
void test_dump()
{
int* p = NULL;
*p = 2; // occur dump
}
void test_f2(int b)
{
b += 1;
test_dump();
}
void test_f1(int a)
{
a+=1;
test_f2(a);
}
int main()
{
test_f1(1);
return 0;
}
在Debug以及Rel模式下,觸發崩潰,使用gdb來輸出堆疊資訊分別如下:
結論:在Rel
模式下,O3級別的優化內聯了呼叫函式,如果從崩潰點往上回溯有多個可能入口點,那僅憑dump
資訊不能確認是哪個入口觸發的崩潰。
構造測試環境
通過分析程式碼,得知要觸發可能的多重釋放,需要構造一邊建立,一邊銷燬的場景。
- 建立:可通過測試工具,定時高頻傳送特定指令,觸發建立流程
- 銷燬:可在定時任務中,進行無效狀態上報,觸發銷燬流程
為了加快崩潰復現速度,建立以及銷燬的速度需要合理匹配,如果太快銷燬,會導致無法進入建立流程。經過分析嘗試,最終
設定測試工具每50毫秒傳送一次,後臺服務每50ms上報無效狀態。
為進一步驗證崩潰的想法,在銷燬操作等關鍵路徑新增日誌,啟動Rel
版來重現。經過長時間的測試,獲得了2
次寶貴的崩潰dump以及對應的日誌。每次dump要花費2個半小時甚至更多才能復現,說明這個問題是偶發問題,很可能與多執行緒競態有關。復現該問題的時間成本有點高,不過,從獲得的dump以及日誌已足以定位問題。
日誌分析
同一後臺服務,不同業務模組的日誌分佈在不同日誌檔案中,在分析時,需要將各部分日誌聚合起來,方便復現全流程。在聚合時,可以按需擷取各模組的最後若干行日誌,每種日誌中包含正常以及異常的日誌,將其彙總到單一檔案,然後結合程式碼進行逐行關聯分析。
在分析過程中,遇到一些框架方面的疑問,通過詢問相關同事得到解答。目前的訊息收發框架在接收訊息時,先將訊息放入執行緒池的訊息佇列,通過訊號量來喚醒執行緒,執行緒從訊息佇列中獲取訊息,從訊息中取出處理函式進行處理。
在應用層處理不同訊息時,可能處理同一個變數時,會有發生競態。通過對釋放指標的分析,正常釋放指標指都有一定的規律,當觸發崩潰時,釋放的指標值與正常的值有明顯區別。
經驗小結
- 發現有dump檔案時,檢視dump檔案生成時間,將當時的日誌以及可執行檔案,連同dump檔案一併放在獨立的資料夾中,便於後續分析。因為當前的日誌檔案以及可執行檔案可能被刪除以及更新。
- 每一次問題的解決,都是一次對已有系統的再深入認識,理解。
- 構造復現環境時,要使用Rel版本,且只能通過日誌來確認程式流程,而不是斷點。
- 在linux上,不能使用巢狀屬性的互斥鎖,它會破壞設計意圖,讓潛在的死鎖更加難以發現。讓錯誤儘早暴露好過後續找錯。
- 大膽假設,小心求證,勝利的曙光終會出現。
參考文章: