日誌和告警資料探勘經驗談

劉建平Pinard發表於2016-11-07

    最近參與了了一個日誌和告警的資料探勘專案,裡面用到的一些思路在這裡和大家做一個分享。

    專案的需求是收集的客戶系統一個月300G左右的的日誌和告警資料做一個整理,主要是歸類(Grouping)和關聯(Correlation),從而得到告警和日誌的一些統計關係,這些統計結果可以給一線支援人員參考。

    得到的資料主要分為兩部分,一部分是告警的歷史資料,這部分資料很少,只有50M左右,剩下的全部都是日誌資料。日誌資料大概有50多種不同型別,對應系統中不同的模組。每種型別的檔案每天產生一個日誌檔案,所以總數大概是1500個左右的日誌檔案。檔案大概都是這樣的:A_2016-04-15.log, B_2016-04-15.log, ..., A_2016-05-14.log, B_2016-05-14.log。每個檔案在10M-1G之間不等。

1. 日誌的模式挖掘

    通過檢視日誌,發現所有的log每一行基本都是類似這樣的Pattern:

    YYYY-MM-DD hh:mm:ss [模組名] [具體日誌]

    每類日誌的模組名都是一樣的,基本可以忽略。有價值的就是時間戳和具體日誌。

    而且可以發現,很多日誌只是極少部分動態內容不同,在程式碼中屬於同一個位置的輸出,這些資料後面我們會分為一類資料。比如:

    2016-04-26 00:30:38.795 55637   ResourceManager Free ram (MB): 244736

    2016-04-26 00:34:38.795 55637   ResourceManager Free ram (MB): 244748

    有某些型別日誌每個時段都有出現,諮詢後得知基本沒有任何分析價值,這些日誌後面我們會加入黑名單,不加分析。

2. 日誌的歸類

    由於每類日誌都有30個檔案,每個檔案基本都有100萬行,我們的第一步工作就是去除上面提到的無用日誌。去掉無用日誌後,我們要分析的日誌大概減少了30%。

    接著我們要做的就是每一行的日誌進行歸類(Grouping)。這裡有很多的方法可以選擇,比如K-means,但是我們這麼多的日誌,很難去定義一個合適的K。經過一番嘗試後我們放棄了K-means。但是K-means的思想還是可以用的。最後我們使用的是啟發式的方法來歸類。

    首先定下的基本思路是: 對於每一類檔案,我們分別做歸類,最後再一起和告警檔案做關聯(Crrelation)。我們作了不同類別檔案的日誌肯定不在一類的假定。

    對於每一類檔案的每一行日誌,我們我們通過對具體日誌的字串的相似度進行歸類,演算法如下:

    1)初始化將最終類別陣列設定為空,類別陣列的每一行的格式是 [index] [類別裡第一次出現的具體日誌內容] [該類日誌出現的所有時間形成的陣列]

    2)初始化字串相似度閾值,相似度超過閾值的字串即為一類。專案裡面我們相似度閾值取80%。

    3)初始化歸類的時間間隔,在一個時間間隔內的相似日誌僅僅記錄一次時間。也就是說如果某類日誌已經有這段時間的記錄,再次在這段時間出現的類似日誌將會被忽略。取的過大,後面關聯時精確度降低,取的過小,後面關聯時計算量會很大。專案裡我們取10分鐘作為日誌間隔。也就是一天劃分成了24*6個時間間隔。

    4)對於某一種類別, 對於每一行的具體日誌我們去和該類別的最終類別陣列的每一行的具體日誌做相似度比較:

      a) 如果和最終類別裡的某行具體日誌的字串的相似度超過了閾值,則這兩個字串即歸為一類,僅僅把這個要分析的具體日誌的時間點存入該類別,停止該行日誌的分析。

      b) 如果和最終類別裡的任何一行具體日誌的字串的相似度都低於閾值。則我們發現了一個新的類別。在最終類別里加入一行記錄。並把該日誌的時間間隔對應的點作為該類別的時間陣列的第一條時間記錄。

    5) 對於所有其他的類別,分別執行上面的第4步。得到所有類別的最終類別陣列。最終我們的50多個類別陣列一共只剩下100多M,每個陣列平均有100多種類別。

    

    這個演算法產生的類別陣列中每一行是這樣的內容:

    1  ResourceManager Free ram (MB): 244736   [[2016-04-26 00:30],[2016-04-26 10:40], ...] 

    上面的演算法中,我們用到了字串相似度演算法。這裡我們用到是python的字串下相似度演算法庫:python-Levenshtein。計算相似度我們用了python-Levenshtein庫的ratio函式,即萊文斯坦比。如果大家對python-Levenshtein的字串相似度計算有興趣,可以參考python-Levenshtein的官方文件:https://pypi.python.org/pypi/python-Levenshtein/0.12.0#id1

    

3. 日誌和告警的關聯

    現在我們有了50多種日誌的類別資料,每個類別也有在時間分佈上的資料,同時,回到告警,每個告警也有在時間分佈上的資料。現在我們可以在時間維度上做關聯演算法。

    我們的日誌類別陣列和告警在時間維度一共有30*24*6=4320個點。我們的目標是找到和每個告警在時間維度上關聯度比較高的一組日誌。這裡我們採用的是基於餘弦相似度的演算法。我們選擇了所有的和告警在時間維度上相似度超過80%的日誌類別。這些類別作為最終的統計結果作為我們輸出的一部分。

4. 告警和告警的關聯

    這部分工作主要是研究告警和告警之間的統計關係。主要是基於統計的在時間維度上的父子關係。

    由於告警資料較少,我們將時間間隔精確到1分鐘。對於每一種告警,我們檢查在該告警和其他告警在時間維度上的關係。我們檢查3種情況。

    第一種情況是在相同時間間隔出現的兄弟告警和該告警的統計關係,我們選擇在時間維度上和該告警相似度超過80%的所有告警,這些告警和該告警有時間上同步的關係,也就是這些告警統計上總是和該告警同時出現。

    第二種情況是在該告警出現前一分鐘內的所有父親告警和該告警的關係,我們選擇在時間維度上和該告警相似度超過80%的所有告警,這些告警和該告警有時間上先後的關係,也就是這些告警統計上總是在該告警之前出現。

    第三種情況是在該告警出現後一分鐘內的所有兒子告警和該告警的關係,我們選擇在時間維度上和該告警相似度超過80%的所有告警,這些告警和該告警有時間上先後的關係,也就是這些告警統計上總是在該告警之後出現。

 

    以上就是對日誌和告警資料探勘的專案經驗總結,希望對大家有所啟發。

 

(歡迎轉載,轉載請註明出處。歡迎溝通交流: liujianping-ok@163.com)

相關文章