Linux系統中的 iostat是I/O statistics(輸入/輸出統計)的縮寫,iostat工具將對系統的磁碟操作活動進行監視。它的特點是彙報磁碟活動統計情況,同時也會彙報出CPU使用情況。同vmstat一樣,iostat也有一個弱點,就是它不能對某個程式進行深入分析,僅對系統的整體情況進行分析。iostat屬於sysstat軟體包。可以用yum install sysstat 直接安裝。
1.命令格式:
1 |
iostat[引數][時間][次數] |
2.命令功能:
通過iostat方便檢視CPU、網路卡、tty裝置、磁碟、CD-ROM 等等裝置的活動情況, 負載資訊。
3.命令引數:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
-C 顯示CPU使用情況 -d 顯示磁碟使用情況 -k 以 KB 為單位顯示 -m 以 M 為單位顯示 -N 顯示磁碟陣列(LVM) 資訊 -n 顯示NFS 使用情況 -p[磁碟] 顯示磁碟和分割槽的情況 -t 顯示終端和CPU的資訊 -x 顯示詳細資訊 -V 顯示版本資訊 |
4.使用例項:
例項1:顯示所有裝置負載情況
命令:
1 |
iostat |
輸出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
[root@CT1186 ~]# iostat Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 22.73 43.70 487.42 674035705 7517941952 sda1 0.00 0.00 0.00 2658 536 sda2 0.11 3.74 3.51 57721595 54202216 sda3 0.98 0.61 17.51 9454172 270023368 sda4 0.00 0.00 0.00 6 0 sda5 6.95 0.12 108.73 1924834 1677123536 sda6 2.20 0.18 31.22 2837260 481488056 sda7 12.48 39.04 326.45 602094508 5035104240 |
說明:
cpu屬性值說明:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
%user:CPU處在使用者模式下的時間百分比。 %nice:CPU處在帶NICE值的使用者模式下的時間百分比。 %system:CPU處在系統模式下的時間百分比。 %iowait:CPU等待輸入輸出完成時間的百分比。 %steal:管理程式維護另一個虛擬處理器時,虛擬CPU的無意識等待時間百分比。 %idle:CPU空閒時間百分比。 |
備註:如果%iowait的值過高,表示硬碟存在I/O瓶頸,%idle值高,表示CPU較空閒,如果%idle值高但系統響應慢時,有可能是CPU等待分配記憶體,此時應加大記憶體容量。%idle值如果持續低於10,那麼系統的CPU處理能力相對較低,表明系統中最需要解決的資源是CPU。
disk屬性值說明:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 |
rrqm/s: 每秒進行 merge 的讀運算元目。即 rmerge/s wrqm/s: 每秒進行 merge 的寫運算元目。即 wmerge/s r/s: 每秒完成的讀 I/O 裝置次數。即 rio/s w/s: 每秒完成的寫 I/O 裝置次數。即 wio/s rsec/s: 每秒讀扇區數。即 rsect/s wsec/s: 每秒寫扇區數。即 wsect/s rkB/s: 每秒讀K位元組數。是 rsect/s 的一半,因為每扇區大小為512位元組。 wkB/s: 每秒寫K位元組數。是 wsect/s 的一半。 avgrq-sz: 平均每次裝置I/O操作的資料大小 (扇區)。 avgqu-sz: 平均I/O佇列長度。 await: 平均每次裝置I/O操作的等待時間 (毫秒)。 svctm: 平均每次裝置I/O操作的服務時間 (毫秒)。 %util: 一秒中有百分之多少的時間用於 I/O 操作,即被io消耗的cpu百分比 |
備註:如果 %util 接近 100%,說明產生的I/O請求太多,I/O系統已經滿負荷,該磁碟可能存在瓶頸。如果 svctm 比較接近 await,說明 I/O 幾乎沒有等待時間;如果 await 遠大於 svctm,說明I/O 佇列太長,io響應太慢,則需要進行必要優化。如果avgqu-sz比較大,也表示有當量io在等待。
例項2:定時顯示所有資訊
命令:
1 |
iostat 2 3 |
輸出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 |
[root@CT1186 ~]# iostat 2 3 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 22.73 43.70 487.42 674035705 7517947296 sda1 0.00 0.00 0.00 2658 536 sda2 0.11 3.74 3.51 57721595 54202216 sda3 0.98 0.61 17.51 9454172 270023608 sda4 0.00 0.00 0.00 6 0 sda5 6.95 0.12 108.73 1924834 1677125640 sda6 2.20 0.18 31.22 2837260 481488152 sda7 12.48 39.04 326.44 602094508 5035107144 avg-cpu: %user %nice %system %iowait %steal %idle 8.88 0.00 7.94 0.19 0.00 83.00 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 6.00 0.00 124.00 0 248 sda1 0.00 0.00 0.00 0 0 sda2 0.00 0.00 0.00 0 0 sda3 0.00 0.00 0.00 0 0 sda4 0.00 0.00 0.00 0 0 sda5 0.00 0.00 0.00 0 0 sda6 0.00 0.00 0.00 0 0 sda7 6.00 0.00 124.00 0 248 avg-cpu: %user %nice %system %iowait %steal %idle 9.12 0.00 7.81 0.00 0.00 83.07 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 4.00 0.00 84.00 0 168 sda1 0.00 0.00 0.00 0 0 sda2 0.00 0.00 0.00 0 0 sda3 0.00 0.00 0.00 0 0 sda4 0.00 0.00 0.00 0 0 sda5 0.00 0.00 0.00 0 0 sda6 4.00 0.00 84.00 0 168 sda7 0.00 0.00 0.00 0 0 |
說明:
每隔 2秒重新整理顯示,且顯示3次
例項3:顯示指定磁碟資訊
命令:
1 |
iostat -d sda1 |
輸出:
1 2 3 4 5 |
[root@CT1186 ~]# iostat -d sda1 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda1 0.00 0.00 0.00 2658 536 |
說明:
例項4:顯示tty和Cpu資訊
命令:
1 |
iostat -t |
輸出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
[root@CT1186 ~]# iostat -t Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Time: 14時58分35秒 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 22.73 43.70 487.41 674035705 7517957864 sda1 0.00 0.00 0.00 2658 536 sda2 0.11 3.74 3.51 57721595 54202216 sda3 0.98 0.61 17.51 9454172 270024344 sda4 0.00 0.00 0.00 6 0 sda5 6.95 0.12 108.73 1924834 1677128808 sda6 2.20 0.18 31.22 2837260 481488712 sda7 12.48 39.04 326.44 602094508 5035113248 |
說明:
例項5:以M為單位顯示所有資訊
命令:
1 |
iostat -m |
輸出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
[root@CT1186 ~]# iostat -m Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn sda 22.72 0.02 0.24 329119 3670881 sda1 0.00 0.00 0.00 1 0 sda2 0.11 0.00 0.00 28184 26465 sda3 0.98 0.00 0.01 4616 131848 sda4 0.00 0.00 0.00 0 0 sda5 6.95 0.00 0.05 939 818911 sda6 2.20 0.00 0.02 1385 235102 sda7 12.48 0.02 0.16 293991 2458553 |
說明:
例項6:檢視TPS和吞吐量資訊
命令:
1 |
iostat -d -k 1 1 |
輸出:
1 2 3 4 5 6 7 8 9 10 11 12 |
[root@CT1186 ~]# iostat -d -k 1 1 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 22.72 21.85 243.71 337017916 3758984340 sda1 0.00 0.00 0.00 1329 268 sda2 0.11 1.87 1.76 28860797 27101108 sda3 0.98 0.31 8.75 4727086 135012508 sda4 0.00 0.00 0.00 3 0 sda5 6.95 0.06 54.37 962481 838566148 sda6 2.20 0.09 15.61 1418630 240744712 sda7 12.48 19.52 163.22 301047254 2517559596 |
說明:
tps:該裝置每秒的傳輸次數(Indicate the number of transfers per second that were issued to the device.)。“一次傳輸”意思是“一次I/O請求”。多個邏輯請求可能會被合併為“一次I/O請求”。“一次傳輸”請求的大小是未知的。
1 2 3 4 5 |
kB_read/s:每秒從裝置(drive expressed)讀取的資料量; kB_wrtn/s:每秒向裝置(drive expressed)寫入的資料量; kB_read:讀取的總資料量;kB_wrtn:寫入的總數量資料量; |
這些單位都為Kilobytes。
上面的例子中,我們可以看到磁碟sda以及它的各個分割槽的統計資料,當時統計的磁碟總TPS是22.73,下面是各個分割槽的TPS。(因為是瞬間值,所以總TPS並不嚴格等於各個分割槽TPS的總和)
例項7:檢視裝置使用率(%util)、響應時間(await)
命令:
1 |
iostat -d -x -k 1 1 |
輸出:
1 2 3 4 5 6 7 8 9 10 11 12 |
[root@CT1186 ~]# iostat -d -x -k 1 1 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util sda 0.44 38.59 0.40 22.32 21.85 243.71 23.37 0.04 1.78 4.20 9.54 sda1 0.00 0.00 0.00 0.00 0.00 0.00 18.90 0.00 8.26 6.46 0.00 sda2 0.36 0.43 0.11 0.01 1.87 1.76 63.57 0.01 63.75 1.94 0.02 sda3 0.00 1.24 0.04 0.95 0.31 8.75 18.42 0.04 39.77 8.73 0.86 sda4 0.00 0.00 0.00 0.00 0.00 0.00 2.00 0.00 19.67 19.67 0.00 sda5 0.00 6.65 0.00 6.94 0.06 54.37 15.67 0.26 36.81 4.48 3.11 sda6 0.00 1.71 0.01 2.19 0.09 15.61 14.29 0.03 12.40 5.84 1.28 sda7 0.08 28.56 0.25 12.24 19.52 163.22 29.28 0.27 21.46 5.00 6.25 |
說明:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 |
rrqm/s: 每秒進行 merge 的讀運算元目.即 delta(rmerge)/s wrqm/s: 每秒進行 merge 的寫運算元目.即 delta(wmerge)/s r/s: 每秒完成的讀 I/O 裝置次數.即 delta(rio)/s w/s: 每秒完成的寫 I/O 裝置次數.即 delta(wio)/s rsec/s: 每秒讀扇區數.即 delta(rsect)/s wsec/s: 每秒寫扇區數.即 delta(wsect)/s rkB/s: 每秒讀K位元組數.是 rsect/s 的一半,因為每扇區大小為512位元組.(需要計算) wkB/s: 每秒寫K位元組數.是 wsect/s 的一半.(需要計算) avgrq-sz:平均每次裝置I/O操作的資料大小 (扇區).delta(rsect+wsect)/delta(rio+wio) avgqu-sz:平均I/O佇列長度.即 delta(aveq)/s/1000 (因為aveq的單位為毫秒). await: 平均每次裝置I/O操作的等待時間 (毫秒).即 delta(ruse+wuse)/delta(rio+wio) svctm: 平均每次裝置I/O操作的服務時間 (毫秒).即 delta(use)/delta(rio+wio) %util: 一秒中有百分之多少的時間用於 I/O 操作,或者說一秒中有多少時間 I/O 佇列是非空的,即 delta(use)/s/1000 (因為use的單位為毫秒) |
如果 %util 接近 100%,說明產生的I/O請求太多,I/O系統已經滿負荷,該磁碟可能存在瓶頸。
idle小於70% IO壓力就較大了,一般讀取速度有較多的wait。
同時可以結合vmstat 檢視檢視b引數(等待資源的程式數)和wa引數(IO等待所佔用的CPU時間的百分比,高過30%時IO壓力高)。
另外 await 的引數也要多和 svctm 來參考。差的過高就一定有 IO 的問題。
avgqu-sz 也是個做 IO 調優時需要注意的地方,這個就是直接每次操作的資料的大小,如果次數多,但資料拿的小的話,其實 IO 也會很小。如果資料拿的大,才IO 的資料會高。也可以通過 avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s。也就是講,讀定速度是這個來決定的。
svctm 一般要小於 await (因為同時等待的請求的等待時間被重複計算了),svctm 的大小一般和磁碟效能有關,CPU/記憶體的負荷也會對其有影響,請求過多也會間接導致 svctm 的增加。await 的大小一般取決於服務時間(svctm) 以及 I/O 佇列的長度和 I/O 請求的發出模式。如果 svctm 比較接近 await,說明 I/O 幾乎沒有等待時間;如果 await 遠大於 svctm,說明 I/O 佇列太長,應用得到的響應時間變慢,如果響應時間超過了使用者可以容許的範圍,這時可以考慮更換更快的磁碟,調整核心 elevator 演算法,優化應用,或者升級 CPU。
佇列長度(avgqu-sz)也可作為衡量系統 I/O 負荷的指標,但由於 avgqu-sz 是按照單位時間的平均值,所以不能反映瞬間的 I/O 洪水。
形象的比喻:
r/s+w/s 類似於交款人的總數
平均佇列長度(avgqu-sz)類似於單位時間裡平均排隊人的個數
平均服務時間(svctm)類似於收銀員的收款速度
平均等待時間(await)類似於平均每人的等待時間
平均I/O資料(avgrq-sz)類似於平均每人所買的東西多少
I/O 操作率 (%util)類似於收款臺前有人排隊的時間比例
裝置IO操作:總IO(io)/s = r/s(讀) +w/s(寫) =1.46 + 25.28=26.74
平均每次裝置I/O操作只需要0.36毫秒完成,現在卻需要10.57毫秒完成,因為發出的 請求太多(每秒26.74個),假如請求時同時發出的,可以這樣計算平均等待時間:
平均等待時間=單個I/O伺服器時間*(1+2+…+請求總數-1)/請求總數
每秒發出的I/0請求很多,但是平均佇列就4,表示這些請求比較均勻,大部分處理還是比較及時。
例項8:檢視cpu狀態
命令:
1 |
iostat -c 1 3 |
輸出:
1 2 3 4 5 6 7 8 9 10 11 |
[root@CT1186 ~]# iostat -c 1 3 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 avg-cpu: %user %nice %system %iowait %steal %idle 8.64 0.00 5.38 0.00 0.00 85.98 avg-cpu: %user %nice %system %iowait %steal %idle 7.62 0.00 5.12 0.50 0.00 86.75 |
說明:
本系列文章:
每天一個 Linux 命令(1):ls命令
每天一個 Linux 命令(2):cd命令
每天一個 Linux 命令(3):pwd命令
每天一個 Linux 命令(4):mkdir命令
每天一個 Linux 命令(5):rm 命令
每天一個 Linux 命令(6):rmdir 命令
每天一個 Linux 命令(7):mv命令
每天一個 Linux 命令(8):cp 命令
每天一個 Linux 命令(9):touch 命令
每天一個 Linux 命令(10):cat 命令
每天一個 Linux 命令(11):nl 命令
每天一個 Linux 命令(12):more 命令
每天一個 Linux 命令(13):less 命令
每天一個 Linux 命令(14):head 命令
每天一個 Linux 命令(15):tail 命令
每天一個 Linux 命令(16):which命令
每天一個 Linux 命令(17):whereis 命令
每天一個 Linux 命令(18):locate 命令
每天一個 Linux 命令(19):find 命令概覽
每天一個 Linux 命令(20):find命令之exec
每天一個 Linux 命令(21):find命令之xargs
每天一個 Linux 命令(22):find 命令的引數詳解
每天一個 Linux 命令(23):Linux 目錄結構
每天一個 Linux 命令(24):Linux 檔案型別與副檔名
每天一個 Linux 命令(25):Linux 檔案屬性詳解
每天一個 Linux 命令(26):用 SecureCRT 來上傳和下載檔案
每天一個 Linux 命令(27):linux chmod 命令
每天一個 Linux 命令(28):tar 命令
每天一個 Linux 命令(29): chgrp 命令
每天一個 Linux 命令(30): chown 命令
每天一個 Linux 命令(31): /etc/group 檔案詳解
每天一個 Linux 命令(32):gzip 命令
每天一個 Linux 命令(33):df 命令
每天一個 Linux 命令(34): du 命令
每天一個 Linux 命令(35): ln 命令
每天一個 Linux 命令(36): diff 命令
每天一個 Linux 命令(37): date 命令
每天一個 Linux 命令(38): cal 命令
每天一個 Linux 命令(39): grep 命令
每天一個 Linux 命令(40): wc 命令
每天一個 Linux 命令(41): ps 命令
每天一個 Linux 命令(44): top 命令
每天一個 Linux 命令(45): free 命令
每天一個 Linux 命令(46): vmstat 命令