大家好,我是小富~
最近發現點好玩的工具,迫不及待的想跟大家分享一下。
大家平時都怎麼查Linux
日誌呢?
像我平時會用tail
、head
、cat
、sed
、more
、less
這些經典系統命令,或者awk
這類三方資料過濾工具,配合起來查詢效率很高。但在使用過程中有一點讓我比較頭疼,那就是命令引數規則太多了,記的人腦殼疼。
那查日誌有沒有一種通用的方式,比如用SQL查詢,畢竟這是程式設計師都比較熟悉的表示式。
今天分享的工具q,就實現了以寫SQL的方式來查詢、統計文字內容,一起看看這貨到底有什麼神奇之處。
搭個環境
q是一個命令列工具,允許我們在任意檔案或者查詢結果,比如可以在ps -ef
查詢程式命令的結果集上,直接執行SQL語句查詢。
宗旨就是文字即資料庫表,額~,當然這句話是我自己理解的,哈哈哈
它將普通檔案或者結果集當作資料庫表,幾乎支援所有的SQL結構,如WHERE
、GROUP BY
、JOINS
等,支援自動列名和列型別檢測,支援跨檔案連線查詢,這兩個後邊詳細介紹,支援多種編碼。
安裝比較簡單,在Linux CentOS
環境,只要如下三步搞定,Windows
環境更是隻需安裝個exe
就可以用了。
wget https://github.com/harelba/q/releases/download/1.7.1/q-text-as-data-1.7.1-1.noarch.rpm #下載版本
sudo rpm -ivh q-text-as-data-1.7.1-1.noarch.rpm # 安裝
q --version #檢視安裝版本
語法
q支援所有SQLite
SQL語法,標準命令列格式q + 引數命令 + "SQL"
q <命令> "<SQL>"
我要查詢myfile.log
檔案的內容,直接q "SELECT * FROM myfile.log"
。
q "SELECT * FROM myfile.log"
q不附加引數使用是完全沒有問題的,但利用引數會讓顯示結果更加美觀,所以這裡簡單瞭解一下,它的引數分為 2種。
input
輸入命令:指的是對要查詢的檔案或結果集進行操作,比如:-H
命令,表示輸入的資料包含標題行。
q -H "SELECT * FROM myfile.log"
在這種情況下,將自動檢測列名,並可在查詢語句中使用。如果未提供此選項,則列將自動命名為cX,以c1起始以此類推。
q "select c1,c2 from ..."
output
輸出命令:作用在查詢輸出的結果集,比如:-O
,讓查詢出來的結果顯示列名。
[root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H "select count(UID) from - where UID='root'"
104
[root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H -O "select count(UID) from - where UID='root'"
count(UID)
104
還有很多引數就不一一列舉了,感興趣的同學在官網上看下,接下來我們重點演示一下使用SQL如何應對各種查詢日誌的場景。
玩法賊多
下邊我們們一起看幾個查詢日誌的經常場景中,這個SQL該如何寫。
1、關鍵字查詢
關鍵字檢索,應該是日常開發使用最頻繁的操作,不過我個人認為這一點q
並沒有什麼優勢,因為它查詢時必須指定某一列。
[root@iZ2zebfzaequ90bdlz820sZ software]# q "select * from douyin.log where c9 like '%待解析%'"
2021-06-11 14:46:49.323 INFO 22790 --- [nio-8888-exec-2] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9g9uJ6%2F
2021-06-11 14:57:31.938 INFO 22790 --- [nio-8888-exec-5] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9pdhGP%2F
2021-06-11 15:23:48.004 INFO 22790 --- [nio-8888-exec-2] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9pQjBR%2F
2021-06-11 2
而用grep
命令則是全文檢索。
[root@iZ2zebfzaequ90bdlz820sZ software]# cat douyin.log | grep '待解析URL'
2021-06-11 14:46:49.323 INFO 22790 --- [nio-8888-exec-2] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9g9uJ6%2F
2021-06-11 14:57:31.938 INFO 22790 --- [nio-8888-exec-5] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9pdhGP%2F
2、模糊查詢
like
模糊搜尋,如果文字內容列有名字直接用列名檢索,沒有則直接根據列號c1、c2、cN。
[root@iZ2zebfzaequ90bdlz820sZ software]# cat test.log
abc
2
3
4
5
23
24
25
[root@iZ2zebfzaequ90bdlz820sZ software]# q -H -t "select * from test.log where abc like '%2%'"
Warning: column count is one - did you provide the correct delimiter?
2
23
24
25
3、交集並集
支援UNION
和UNION ALL
操作符對多個檔案取交集或者並集。
如下建了test.log
和test1.log
兩個檔案,裡邊的內容有重疊,用union
進行去重。
q -H -t "select * from test.log union select * from test1.log"
[root@iZ2zebfzaequ90bdlz820sZ software]# cat test.log
abc
2
3
4
5
[root@iZ2zebfzaequ90bdlz820sZ software]# cat test1.log
abc
3
4
5
6
[root@iZ2zebfzaequ90bdlz820sZ software]# q -H -t "select * from test.log union select * from test1.log"
Warning: column count is one - did you provide the correct delimiter?
Warning: column count is one - did you provide the correct delimiter?
2
3
4
5
6
4、內容去重
比如統計某個路徑下的./clicks.csv
檔案中,uuid
欄位去重後出現的總個數。
q -H -t "SELECT COUNT(DISTINCT(uuid)) FROM ./clicks.csv"
5、列型別自動檢測
注意:q會理解每列是數字還是字串,判斷是根據實數值比較,還是字串比較進行過濾,這裡會用到-t
命令。
q -H -t "SELECT request_id,score FROM ./clicks.csv WHERE score > 0.7 ORDER BY score DESC LIMIT 5"
6、欄位運算
讀取系統命令查詢結果,計算/tmp
目錄中每個使用者和組的總值。可以對欄位進行運算處理。
sudo find /tmp -ls | q "SELECT c5,c6,sum(c7)/1024.0/1024 AS total FROM - GROUP BY c5,c6 ORDER BY total desc"
[root@iZ2zebfzaequ90bdlz820sZ software]# sudo find /tmp -ls | q "SELECT c5,c6,sum(c7)/1024.0/1024 AS total FROM - GROUP BY c5,c6 ORDER BY total desc"
www www 8.86311340332
root root 0.207922935486
mysql mysql 4.76837158203e-06
7、資料統計
統計系統擁有最多程式數的前 3個使用者ID,按降序排序,這就需要和系統命令配合使用了,先查詢所有程式再利用SQL篩選,這裡的q命令就相當grep
命令。
ps -ef | q -H "SELECT UID,COUNT(*) cnt FROM - GROUP BY UID ORDER BY cnt DESC LIMIT 3"
[root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H "SELECT UID,COUNT(*) cnt FROM - GROUP BY UID ORDER BY cnt DESC LIMIT 3"
root 104
www 16
rabbitmq 4
[root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H -O "SELECT UID,COUNT(*) cnt FROM - GROUP BY UID ORDER BY cnt DESC LIMIT 3"
UID cnt
root 110
www 16
rabbitmq 4
我們看到加與不加-O
命令的區別就是否顯示查詢結果的標題。
8,連檔案查
一般情況下,我們的日誌檔案會按天分割成很多個固定容量的子檔案,在沒有統一的日誌收集伺服器的情況下,如果不給個報錯時間區間去查一個關鍵詞,那麼無異於大海撈針。
如果可以將所有檔案內容合併後在查就會省事很多,q支援將檔案像資料庫表那樣聯合查詢。
q -H "select * from douyin.log a join douyin-2021-06-18.0.log b on (a.c2=b.c3) where b.c1='root'"
總結
看完可能會有人抬槓:q
寫這麼多程式碼直接用awk
不香嗎?額~ 介紹這個工具的初衷並不是說要替換現有哪種工具,而是多提供一種更為便捷的查日誌方法。
我也有在用awk
確實很強大沒得說,但這裡邊涉及到一個學習成本的問題,琳琅滿目的命令、匹配規則想玩轉還是要下點功夫的。而對於新手程式設計師稍微有點資料庫經驗,寫SQL問題都不大,上手q
則會容易的多。
整理了幾百本各類技術電子書,送給小夥伴們。關注公號回覆【666】自行領取。和一些小夥伴們建了一個技術交流群,一起探討技術、分享技術資料,旨在共同學習進步,如果感興趣就加入我們吧!