Linux系統中的 iostat是I/O statistics(輸入/輸出統計)的縮寫,iostat工具將對系統的磁碟操作活動進行監視。它的特點是彙報磁碟活動統計情況,同時也會彙報出CPU使用情況。同vmstat一樣,iostat也有一個弱點,就是它不能對某個程式進行深入分析,僅對系統的整體情況進行分析。iostat屬於sysstat軟體包。可以用yum install sysstat 直接安裝。
一.命令格式
iostat [引數] [時間] [次數]
二.命令功能
通過iostat方便檢視CPU、網路卡、tty裝置、磁碟、CD-ROM 等等裝置的活動情況, 負載資訊。
三.命令引數
引數 | 描述 |
---|---|
-c | 顯示CPU使用情況 |
-d | 顯示磁碟使用情況 |
-k | 以 KB 為單位顯示,預設也是以KB顯示 |
-m | 以 M 為單位顯示 |
-N | 顯示磁碟陣列(LVM) 資訊 |
-n | 顯示NFS 使用情況 |
-p [磁碟] | 顯示磁碟和分割槽的情況 |
-t | 顯示終端和CPU的資訊 |
-x | 顯示詳細資訊 |
-V | 顯示版本資訊 |
四.使用例項
1:顯示所有裝置負載情況
命令:
iostat
輸出:
[root@localhost tmp]# iostat
Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
2.19 0.01 8.30 0.00 0.00 89.50
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
scd0 0.00 0.00 0.00 1050 0
sda 0.43 13.70 6.11 7742241 3453170
dm-0 0.45 13.65 6.01 7709059 3393302
dm-1 0.03 0.01 0.10 6168 57680
說明:
%user:CPU處在使用者模式下的時間百分比。
%nice:CPU處在帶NICE值的使用者模式下的時間百分比。
%system:CPU處在系統模式下的時間百分比。
%iowait:CPU等待輸入輸出完成時間的百分比。
%steal:管理程式維護另一個虛擬處理器時,虛擬CPU的無意識等待時間百分比。
%idle:CPU空閒時間百分比。
備註:
如果%iowait的值過高,表示硬碟存在I/O瓶頸,%idle值高,表示CPU較空閒,
如果%idle值高但系統響應慢時,有可能是CPU等待分配記憶體,此時應加大記憶體容量。
如果idle小於70% IO壓力就較大了,一般讀取速度有較多的wait。
如果%idle值如果持續低於10,那麼系統的CPU處理能力相對較低,表明系統中最需要解決的資源是CPU。
tps:該裝置每秒的傳輸次數(Indicate the number of transfers per second that were issued to the device.)。“一次傳輸”意思是“一次I/O請求”。多個邏輯請求可能會被合併為“一次I/O請求”。“一次傳輸”請求的大小是未知的。
kB_read/s:每秒從裝置(drive expressed)讀取的資料量;
kB_wrtn/s:每秒向裝置(drive expressed)寫入的資料量;
kB_read:讀取的總資料量;kB_wrtn:寫入的總數量資料量;
這些單位都為Kilobytes。
2:定時顯示所有資訊
命令:
iostat 2 3
輸出:
[root@localhost tmp]# iostat 2 3
Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
2.19 0.01 8.30 0.00 0.00 89.49
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
scd0 0.00 0.00 0.00 1050 0
sda 0.43 13.70 6.11 7742257 3453702
dm-0 0.45 13.64 6.00 7709075 3393834
dm-1 0.03 0.01 0.10 6168 57680
avg-cpu: %user %nice %system %iowait %steal %idle
7.97 0.00 10.28 0.00 0.00 81.75
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
scd0 0.00 0.00 0.00 0 0
sda 0.00 0.00 0.00 0 0
dm-0 0.00 0.00 0.00 0 0
dm-1 0.00 0.00 0.00 0 0
avg-cpu: %user %nice %system %iowait %steal %idle
7.79 0.00 9.87 0.00 0.00 82.34
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
scd0 0.00 0.00 0.00 0 0
sda 0.00 0.00 0.00 0 0
dm-0 0.00 0.00 0.00 0 0
dm-1 0.00 0.00 0.00 0 0
說明:
每隔2秒重新整理顯示,且顯示3次
3:顯示指定磁碟資訊
命令:
iostat -d sda
輸出:
[root@localhost tmp]# iostat -d sda
Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU)
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 0.43 13.69 6.11 7742257 3453933
4:以M為單位顯示所有資訊
命令:
iostat -m
輸出:
root@localhost tmp]# iostat -m
Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
2.19 0.01 8.30 0.00 0.00 89.49
Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn
scd0 0.00 0.00 0.00 1 0
sda 0.43 0.01 0.01 7564 3373
dm-0 0.45 0.01 0.01 7531 3314
dm-1 0.03 0.00 0.00 6 56
5:顯示裝置磁碟使用情況詳細資訊,使用率(%util)、響應時間(await)
命令:
iostat -d -x
輸出:
[root@localhost tmp]# iostat -d -x
Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU)
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
scd0 0.00 0.00 0.00 0.00 0.00 0.00 72.41 0.00 1.76 1.76 0.00 1.52 0.00
sda 0.00 0.05 0.21 0.22 13.68 6.10 91.28 0.00 1.95 2.22 1.69 0.53 0.02
dm-0 0.00 0.00 0.21 0.24 13.62 6.00 87.07 0.00 2.05 2.26 1.87 0.49 0.02
dm-1 0.00 0.00 0.00 0.03 0.01 0.10 8.24 0.00 10.60 0.81 11.33 0.26 0.00
說明:
disk屬性值說明:
rrqm/s: 每秒進行 merge 的讀運算元目.即 delta(rmerge)/s
wrqm/s: 每秒進行 merge 的寫運算元目.即 delta(wmerge)/s
r/s: 每秒完成的讀 I/O 裝置次數.即 delta(rio)/s
w/s: 每秒完成的寫 I/O 裝置次數.即 delta(wio)/s
rsec/s: 每秒讀扇區數.即 delta(rsect)/s
wsec/s: 每秒寫扇區數.即 delta(wsect)/s
rkB/s: 每秒讀K位元組數.是 rsect/s 的一半,因為每扇區大小為512位元組.(需要計算)
wkB/s: 每秒寫K位元組數.是 wsect/s 的一半.(需要計算)
avgrq-sz:平均每次裝置I/O操作的資料大小 (扇區).delta(rsect+wsect)/delta(rio+wio)
avgqu-sz:平均I/O佇列長度.即 delta(aveq)/s/1000 (因為aveq的單位為毫秒).
await: 平均每次裝置I/O操作的等待時間 (毫秒).即 delta(ruse+wuse)/delta(rio+wio)
svctm: 平均每次裝置I/O操作的服務時間 (毫秒).即 delta(use)/delta(rio+wio)
%util: 一秒中有百分之多少的時間用於 I/O 操作,或者說一秒中有多少時間 I/O 佇列是非空的,即 delta(use)/s/1000 (因為use的單位為毫秒)
備註:
如果 %util 接近 100%,說明產生的I/O請求太多,I/O系統已經滿負荷,該磁碟可能存在瓶頸。
%idle小於70% IO壓力就較大了,一般讀取速度有較多的wait。
同時可以結合vmstat 檢視檢視b引數(等待資源的程式數)和wa引數(IO等待所佔用的CPU時間的百分比,高過30%時IO壓力高)。
另外 await 的引數也要多和 svctm 來參考。差的過高就一定有 IO 的問題。
avgqu-sz 也是個做 IO 調優時需要注意的地方,這個就是直接每次操作的資料的大小,如果次數多,但資料拿的小的話,其實 IO 也會很小。
如果資料拿的大,才IO 的資料會高。也可以通過 avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s。也就是講,讀定速度是這個來決定的。
svctm 一般要小於 await (因為同時等待的請求的等待時間被重複計算了),svctm 的大小一般和磁碟效能有關,CPU/記憶體的負荷也會對其有影響,請求過多也會間接導致 svctm 的增加。
await 的大小一般取決於服務時間(svctm) 以及 I/O 佇列的長度和 I/O 請求的發出模式。如果 svctm 比較接近 await,說明 I/O 幾乎沒有等待時間;
如果 await 遠大於 svctm,說明 I/O 佇列太長,應用得到的響應時間變慢,如果響應時間超過了使用者可以容許的範圍,這時可以考慮更換更快的磁碟,調整核心 elevator 演算法,優化應用,或者升級 CPU。
佇列長度(avgqu-sz)也可作為衡量系統 I/O 負荷的指標,但由於 avgqu-sz 是按照單位時間的平均值,所以不能反映瞬間的 I/O 洪水。
形象的比喻:
r/s+w/s 類似於交款人的總數
平均佇列長度(avgqu-sz)類似於單位時間裡平均排隊人的個數
平均服務時間(svctm)類似於收銀員的收款速度
平均等待時間(await)類似於平均每人的等待時間
平均I/O資料(avgrq-sz)類似於平均每人所買的東西多少
I/O 操作率 (%util)類似於收款臺前有人排隊的時間比例
裝置IO操作:總IO(io)/s = r/s(讀) +w/s(寫) =1.46 + 25.28=26.74
平均每次裝置I/O操作只需要0.36毫秒完成,現在卻需要10.57毫秒完成,因為發出的 請求太多(每秒26.74個),假如請求時同時發出的,可以這樣計算平均等待時間:
平均等待時間=單個I/O伺服器時間*(1+2+…+請求總數-1)/請求總數
每秒發出的I/0請求很多,但是平均佇列就4,表示這些請求比較均勻,大部分處理還是比較及時。