如何用pt-query-digest分析日誌
pt-query-digest是用於分析mysql慢查詢的一個工具,它可以分析binlog、General log、slowlog,也可以透過SHOWPROCESSLIST或者透過tcpdump抓取的MySQL協議資料來進行分析。可以把分析結果輸出到檔案中,分析過程是先對查詢語句的條件進行引數化,然後對引數化以後的查詢進行分組統計,統計出各查詢的執行時間、次數、佔比等,可以藉助分析結果找出問題進行最佳化。
pt-query-digest是一個perl指令碼,只需下載並賦權即可執行。
[root@test1 ]# wget percona.com/get/pt-query-digest [root@test1 ]# chmod u+x pt-query-digest
2、工具使用語法
pt-query-digest [OPTIONS] [FILES] [DSN]
--create-review-table 當使用--review引數把分析結果輸出到表中時,如果沒有表就自動建立。
--create-history-table 當使用--history引數把分析結果輸出到表中時,如果沒有表就自動建立。
--filter 對輸入的慢查詢按指定的字串進行匹配過濾後再進行分析
--limit限制輸出結果百分比或數量,預設值是20,即將最慢的20條語句輸出,如果是50%則按總響應時間佔比從大到小排序,輸出到總和達到50%位置截止。
--host mysql伺服器地址
--user mysql使用者名稱
--password mysql使用者密碼
--history 將分析結果儲存到表中,分析結果比較詳細,下次再使用--history時,如果存在相同的語句,且查詢所在的時間區間和歷史表中的不同,則會記錄到資料表中,可以透過查詢同一CHECKSUM來比較某型別查詢的歷史變化。
--review 將分析結果儲存到表中,這個分析只是對查詢條件進行引數化,一個型別的查詢一條記錄,比較簡單。當下次使用--review時,如果存在相同的語句分析,就不會記錄到資料表中。
--output 分析結果輸出型別,值可以是report(標準分析報告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便於閱讀。
--since 從什麼時間開始分析,值為字串,可以是指定的某個”yyyy-mm-dd [hh:mm:ss]”格式的時間點,也可以是簡單的一個時間值:s(秒)、h(小時)、m(分鐘)、d(天),如12h就表示從12小時前開始統計。
--until 截止時間,配合—since可以分析一段時間內的慢查詢。
3、分析報告解析
第一部分:總體統計結果,如下圖
Overall: 總共有多少條查詢,上例為總共266個查詢。
Time range: 查詢執行的時間範圍。
unique: 唯一查詢數量,即對查詢條件進行引數化以後,總共有多少個不同的查詢,該例為55。
total: 總計 min:最小 max: 最大 avg:平均
95%: 把所有值從小到大排列,位置位於95%的那個數,這個數一般最具有參考價值。
median: 中位數,把所有值從小到大排列,位置位於中間那個數。
第二部分:查詢分組統計結果,如下圖
由上圖可見,這部分對查詢進行引數化並分組,然後對各類查詢的執行情況進行分析,結果按總執行時長,從大到小排序。
Response: 總的響應時間。
time: 該查詢在本次分析中總的時間佔比。
calls: 執行次數,即本次分析總共有多少條這種型別的查詢語句。
R/Call: 平均每次執行的響應時間。
Item : 查詢物件
第三部分:每一種查詢的詳細統計結果,如下圖:
由上圖可見,1號查詢的詳細統計結果,最上面的表格列出了執行次數、最大、最小、平均、95%等各專案的統計。
Databases: 庫名
Users: 各個使用者執行的次數(佔比)
Query_time distribution : 查詢時間分佈, 長短體現區間佔比,本例中1s-10s之間查詢數量是10s以上的數倍。
Tables: 查詢中涉及到的表
Explain: 示例
4.用法示例
(1)直接分析慢查詢檔案
pt-query-digest slow.log > slow_report.log
(2)分析最近12小時內的查詢
pt-query-digest --since=12h slow.log > slow_report2.log
(3)分析指定時間範圍內的查詢
pt-query-digest slow.log --since '2014-04-17 09:30:00' --until '2014-04-17 10:00:00'> > slow_report3.log
(4)分析只含有select語句的慢查詢
pt-query-digest--filter '$event->{fingerprint} =~ m/^select/i' slow.log> slow_report4.log
(5) 針對某個使用者的慢查詢
pt-query-digest--filter '($event->{user} || "") =~ m/^root/i' slow.log> slow_report5.log
(6) 查詢所有的全表掃描或full join的慢查詢
pt-query-digest--filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow_report6.log
(7)把查詢儲存到query_review表
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_review--create-review-table slow.log
(8)把查詢儲存到query_history表
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_ history--create-review-table slow.log_20140401
pt-query-digest --user=root –password=abc123--review h=localhost,D=test,t=query_history--create-review-table slow.log_20140402
(9)透過tcpdump抓取mysql的tcp協議資料,然後再分析
tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log
(10)分析binlog
mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql
pt-query-digest --type=binlog mysql-bin000093.sql > slow_report10.log
(11)分析general log
pt-query-digest --type=genlog localhost.log > slow_report11.log
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/22996654/viewspace-2147525/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- pt-query-digest分析mysql查詢日誌MySql
- 【pt系列】MySQL慢日誌分析工具pt-query-digest使用、報告分析MySql
- 日誌分析-apache日誌分析Apache
- 如何用NodeJS讀取分析Nginx錯誤日誌NodeJSNginx
- 轉:通過pt-query-digest分析收集MySQL慢查詢日誌到指定位置MySql
- [日誌分析篇]-利用ELK分析jumpserver日誌-日誌拆分篇Server
- 玄機-第二章日誌分析-apache日誌分析Apache
- Apche日誌系列(4):日誌分析(轉)
- FDOAGENT日誌分析
- crash日誌分析
- awk分析日誌
- pg日誌分析
- Docker 容器日誌分析Docker
- JAVA GC日誌分析JavaGC
- perl分析apache日誌Apache
- 日誌收集分析-heka
- awstats分析web日誌Web
- mysqldumpslow日誌分析MySql
- LOGMINER日誌分析
- 日誌採集/分析
- 日誌分析一例
- mongodb 日誌分析工具mtoolsMongoDB
- IOS 崩潰日誌分析iOS
- 日誌分析如何演變
- CDN日誌實時分析
- ELK日誌分析系統
- net 日誌分析錯誤
- 日誌分析常規操作
- MongoDB 日誌分析工具 mtoolsMongoDB
- 日誌分析工具 Log Parser
- logminer 日誌分析案例
- elk 日誌分析系統
- ELK 日誌分析體系
- dml操作重做日誌分析
- 【ELK】日誌分析系統
- 分析一段日誌
- MySQL 死鎖日誌分析MySql
- nginx日誌分析工具goaccessNginxGo