一、影響Linux伺服器效能的因素
1. 作業系統級
- CPU
- 記憶體
- 磁碟I/O頻寬
- 網路I/O頻寬
2. 程式應用級
二、系統效能評估標準
影響效能因素
影響效能因素 | 評判標準 | ||
好 | 壞 | 糟糕 | |
CPU | user% + sys%< 70% | user% + sys%= 85% | user% + sys% >=90% |
記憶體 | Swap In(si)=0Swap Out(so)=0 | Per CPU with 10 page/s | More Swap In & Swap Out |
磁碟 | iowait % < 20% | iowait % =35% | iowait % >= 50% |
其中:
%user:表示CPU處在使用者模式下的時間百分比。
%sys:表示CPU處在系統模式下的時間百分比。
%iowait:表示CPU等待輸入輸出完成時間的百分比。
swap in:即si,表示虛擬記憶體的頁匯入,即從SWAP DISK交換到RAM
swap out:即so,表示虛擬記憶體的頁匯出,即從RAM交換到SWAP DISK。
三、系統效能分析工具
1.常用系統命令
Vmstat、sar、iostat、netstat、free、ps、top等
2.常用組合方式
• 用vmstat、sar、iostat檢測是否是CPU瓶頸
• 用free、vmstat檢測是否是記憶體瓶頸
• 用iostat檢測是否是磁碟I/O瓶頸
• 用netstat檢測是否是網路頻寬瓶頸
四、Linux效能評估與優化
1. 系統整體效能評估(uptime命令)
1 2 |
[root@server ~]# uptime 16:38:00 up 118 days, 3:01, 5 users, load average: 1.22, 1.02, 0.91 |
這裡需要注意的是:load average這個輸出值,這三個值的大小一般不能大於系統CPU的個數,例如,本輸出中系統有8個CPU,如果load average的三個值長期大於8時,說明CPU很繁忙,負載很高,可能會影響系統效能,但是偶爾大於8時,倒不用擔心,一般不會影響系統效能。相反,如果load average的輸出值小於CPU的個數,則表示CPU還有空閒的時間片,比如本例中的輸出,CPU是非常空閒的。
2. CPU效能評估
(1)利用vmstat命令監控系統CPU
該命令可以顯示關於系統各種資源之間相關效能的簡要資訊,這裡我們主要用它來看CPU一個負載情況。
下面是vmstat命令在某個系統的輸出結果:
1 2 3 4 5 6 |
[root@node1 ~]# vmstat 2 3 procs ———–memory———- —swap– —–io—- –system– —–cpu—— r b swpd free buff cache si so bi bo in cs us sy id wa st 0 0 0 162240 8304 67032 0 0 13 21 1007 23 0 1 98 0 0 0 0 0 162240 8304 67032 0 0 1 0 1010 20 0 1 100 0 0 0 0 0 162240 8304 67032 0 0 1 1 1009 18 0 1 99 0 0 |
- Procs
r列表示執行和等待cpu時間片的程式數,這個值如果長期大於系統CPU的個數,說明CPU不足,需要增加CPU。
b列表示在等待資源的程式數,比如正在等待I/O、或者記憶體交換等。
- Cpu
us列顯示了使用者程式消耗的CPU 時間百分比。us的值比較高時,說明使用者程式消耗的cpu時間多,但是如果長期大於50%,就需要考慮優化程式或演算法。
sy列顯示了核心程式消耗的CPU時間百分比。Sy的值較高時,說明核心消耗的CPU資源很多。
根據經驗,us+sy的參考值為80%,如果us+sy大於 80%說明可能存在CPU資源不足。
(2)利用sar命令監控系統CPU
sar功能很強大,可以對系統的每個方面進行單獨的統計,但是使用sar命令會增加系統開銷,不過這些開銷是可以評估的,對系統的統計結果不會有很大影響。
下面是sar命令對某個系統的CPU統計輸出:
1 2 3 4 5 6 7 8 9 |
[root@webserver ~]# sar -u 3 5 Linux 2.6.9-42.ELsmp (webserver) 11/28/2008 _i686_ (8 CPU) 11:41:24 AM CPU %user %nice %system %iowait %steal %idle 11:41:27 AM all 0.88 0.00 0.29 0.00 0.00 98.83 11:41:30 AM all 0.13 0.00 0.17 0.21 0.00 99.50 11:41:33 AM all 0.04 0.00 0.04 0.00 0.00 99.92 11:41:36 AM all 90.08 0.00 0.13 0.16 0.00 9.63 11:41:39 AM all 0.38 0.00 0.17 0.04 0.00 99.41 Average: all 0.34 0.00 0.16 0.05 0.00 99.45 |
對上面每項的輸出解釋如下:
- %user列顯示了使用者程式消耗的CPU 時間百分比。
- %nice列顯示了執行正常程式所消耗的CPU 時間百分比。
- %system列顯示了系統程式消耗的CPU時間百分比。
- %iowait列顯示了IO等待所佔用的CPU時間百分比
- %steal列顯示了在記憶體相對緊張的環境下pagein強制對不同的頁面進行的steal操作 。
- %idle列顯示了CPU處在空閒狀態的時間百分比。
問題
1.你是否遇到過系統CPU整體利用率不高,而應用緩慢的現象?
在一個多CPU的系統中,如果程式使用了單執行緒,會出現這麼一個現象,CPU的整體使用率不高,但是系統應用卻響應緩慢,這可能是由於程式使用單執行緒的原因,單執行緒只使用一個CPU,導致這個CPU佔用率為100%,無法處理其它請求,而其它的CPU卻閒置,這就導致了整體CPU使用率不高,而應用緩慢現象的發生。
3. 記憶體效能評估
(1)利用free指令監控記憶體
free是監控linux記憶體使用狀況最常用的指令,看下面的一個輸出:
1 2 3 4 5 |
[root@webserver ~]# free -m total used free shared buffers cached Mem: 8111 7185 926 0 243 6299 -/+ buffers/cache: 643 7468 Swap: 8189 0 8189 |
一般有這樣一個經驗公式:應用程式可用記憶體/系統實體記憶體>70%時,表示系統記憶體資源非常充足,不影響系統效能,應用程式可用記憶體/系統實體記憶體<20%時,表示系統記憶體資源緊缺,需要增加系統記憶體,20%<應用程式可用記憶體/系統實體記憶體<70%時,表示系統記憶體資源基本能滿足應用需求,暫時不影響系統效能。
(2)利用vmstat命令監控記憶體
1 2 3 4 5 6 |
[root@node1 ~]# vmstat 2 3 procs ———–memory———- —swap– —–io—- –system– —–cpu—— r b swpd free buff cache si so bi bo in cs us sy id wa st 0 0 0 162240 8304 67032 0 0 13 21 1007 23 0 1 98 0 0 0 0 0 162240 8304 67032 0 0 1 0 1010 20 0 1 100 0 0 0 0 0 162240 8304 67032 0 0 1 1 1009 18 0 1 99 0 0 |
- memory
swpd列表示切換到記憶體交換區的記憶體數量(以k為單位)。如果swpd的值不為0,或者比較大,只要si、so的值長期為0,這種情況下一般不用擔心,不會影響系統效能。
free列表示當前空閒的實體記憶體數量(以k為單位)
buff列表示buffers cache的記憶體數量,一般對塊裝置的讀寫才需要緩衝。
cache列表示page cached的記憶體數量,一般作為檔案系統cached,頻繁訪問的檔案都會被cached,如果cache值較大,說明cached的檔案數較多,如果此時IO中bi比較小,說明檔案系統效率比較好。
- swap
si列表示由磁碟調入記憶體,也就是記憶體進入記憶體交換區的數量。
so列表示由記憶體調入磁碟,也就是記憶體交換區進入記憶體的數量。
一般情況下,si、so的值都為0,如果si、so的值長期不為0,則表示系統記憶體不足。需要增加系統記憶體。
4.磁碟I/O效能評估
(1)磁碟儲存基礎
- 熟悉RAID儲存方式,可以根據應用的不同,選擇不同的RAID方式。
- 儘可能用記憶體的讀寫代替直接磁碟I/O,使頻繁訪問的檔案或資料放入記憶體中進行操作處理,因為記憶體讀寫操作比直接磁碟讀寫的效率要高千倍。
- 將經常進行讀寫的檔案與長期不變的檔案獨立出來,分別放置到不同的磁碟裝置上。
- 對於寫操作頻繁的資料,可以考慮使用裸裝置代替檔案系統。
使用裸裝置的優點有:
- 資料可以直接讀寫,不需要經過作業系統級的快取,節省了記憶體資源,避免了記憶體資源爭用。
- 避免了檔案系統級的維護開銷,比如檔案系統需要維護超級塊、I-node等。
- 避免了作業系統的cache預讀功能,減少了I/O請求。
使用裸裝置的缺點是:
- 資料管理、空間管理不靈活,需要很專業的人來操作。
(2)利用iostat評估磁碟效能
1 2 3 4 5 6 7 8 9 10 11 |
[root@webserver ~]# iostat -d 2 3 Linux 2.6.9-42.ELsmp (webserver) 12/01/2008 _i686_ (8 CPU) Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 1.87 2.58 114.12 6479462 286537372 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 0.00 0.00 0.00 0 0 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 1.00 0.00 12.00 0 24 |
對上面每項的輸出解釋如下:
- Blk_read/s表示每秒讀取的資料塊數。
- Blk_wrtn/s表示每秒寫入的資料塊數。
- Blk_read表示讀取的所有塊數。
- Blk_wrtn表示寫入的所有塊數。
- 可以通過Blk_read/s和Blk_wrtn/s的值對磁碟的讀寫效能有一個基本的瞭解,如果Blk_wrtn/s值很大,表示磁碟的寫操作很頻繁,可以考慮優化磁碟或者優化程式,如果Blk_read/s值很大,表示磁碟直接讀取操作很多,可以將讀取的資料放入記憶體中進行操作。
- 對於這兩個選項的值沒有一個固定的大小,根據系統應用的不同,會有不同的值,但是有一個規則還是可以遵循的:長期的、超大的資料讀寫,肯定是不正常的,這種情況一定會影響系統效能。
(3)利用sar評估磁碟效能
通過“sar –d”組合,可以對系統的磁碟IO做一個基本的統計,請看下面的一個輸出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
[root@webserver ~]# sar -d 2 3 Linux 2.6.9-42.ELsmp (webserver) 11/30/2008 _i686_ (8 CPU) 11:09:33 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util 11:09:35 PM dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 11:09:35 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util 11:09:37 PM dev8-0 1.00 0.00 12.00 12.00 0.00 0.00 0.00 0.00 11:09:37 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util 11:09:39 PM dev8-0 1.99 0.00 47.76 24.00 0.00 0.50 0.25 0.05 Average: DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util Average: dev8-0 1.00 0.00 19.97 20.00 0.00 0.33 0.17 0.02 |
需要關注的幾個引數含義:
- await表示平均每次裝置I/O操作的等待時間(以毫秒為單位)。
- svctm表示平均每次裝置I/O操作的服務時間(以毫秒為單位)。
- %util表示一秒中有百分之幾的時間用於I/O操作。
對以磁碟IO效能,一般有如下評判標準:
正常情況下svctm應該是小於await值的,而svctm的大小和磁碟效能有關,CPU、記憶體的負荷也會對svctm值造成影響,過多的請求也會間接的導致svctm值的增加。
await值的大小一般取決與svctm的值和I/O佇列長度以及I/O請求模式,如果svctm的值與await很接近,表示幾乎沒有I/O等待,磁碟效能很好,如果await的值遠高於svctm的值,則表示I/O佇列等待太長,系統上執行的應用程式將變慢,此時可以通過更換更快的硬碟來解決問題。
%util項的值也是衡量磁碟I/O的一個重要指標,如果%util接近100%,表示磁碟產生的I/O請求太多,I/O系統已經滿負荷的在工作,該磁碟可能存在瓶頸。長期下去,勢必影響系統的效能,可以通過優化程式或者通過更換更高、更快的磁碟來解決此問題。
5. 網路效能評估
(1)通過ping命令檢測網路的連通性
(2)通過netstat –i組合檢測網路介面狀況
(3)通過netstat –r組合檢測系統的路由表資訊
(4)通過sar –n組合顯示系統的網路執行狀態
五、Oracle在Linux下的效能優化
Oracle資料庫記憶體引數的優化
- 與oracle相關的系統核心引數
- SGA、PGA引數設定
Oracle下磁碟儲存效能優化
- 檔案系統的選擇(ext2/ext3、xfs、ocfs2)
- Oracle ASM儲存
1.優化oracle效能引數之前要了解的情況
- 1)實體記憶體有多大
- 2)作業系統估計要使用多大記憶體
- 3)資料庫是使用檔案系統還是裸裝置
- 4)有多少併發連線
- 5)應用是OLTP型別還是OLAP型別
2.oracle資料庫記憶體引數的優化
(1)系統核心引數
修改 /etc/sysctl.conf 這個檔案,加入以下的語句:
1 2 3 4 5 6 7 8 9 10 11 |
kernel.shmmax = 2147483648 kernel.shmmni = 4096 kernel.shmall = 2097152 kernel.sem = 250 32000 100 128 fs.file-max = 65536 net.ipv4.ip_local_port_range = 1024 65000 |
引數依次為:
- Kernel.shmmax:共享記憶體段的最大尺寸(以位元組為單位)。
- Kernel.shmmni:系統中共享記憶體段的最大數量。
- Kernel.shmall:共享記憶體總量,以頁為單位。
- fs.file-max:檔案控制程式碼數,表示在Linux系統中可以開啟的檔案數量。
- net.ipv4.ip_local_port_range:應用程式可使用的IPv4埠範圍。
需要注意的幾個問題
關於Kernel.shmmax
Oracle SGA 由共享記憶體組成,如果錯誤設定 SHMMAX可能會限制SGA 的大小,SHMMAX設定不足可能會導致以下問題:ORA-27123:unable to attach to shared memory segment,如果該引數設定小於Oracle SGA設定,那麼SGA就會被分配多個共享記憶體段。這在繁忙的系統中可能成為效能負擔,帶來系統問題。
Oracle建議Kernel.shmmax最好大於sga,以讓oracle共享記憶體區SGA在一個共享記憶體段中,從而提高效能。
關於Kernel.shmall
表示系統共享記憶體總大小,以頁為單位。
一個32位的Linux系統,8G的記憶體,可以設定kernel.shmall = 2097152,即為: 2097152*4k/1024/1024 = 8G就是說可用共享記憶體一共8G,這裡的4K是32位作業系統一頁的大小,即4096位元組。
關於Kernel.shmmni
表示系統中共享記憶體段的最大數量。系統預設是4096,一般無需修改,在SUN OS下還有Kernel.shmmin引數,表示共享記憶體段最小尺寸,勿要混餚!
(2)SGA、PAG引數的設定
A Oracle在記憶體管理方面的改進
Oracle 9i通過引數PGA_AGGREGATE_TARGET引數實現PGA自動管理 Oracle 10g通過引數SGA_TARGET引數實現了SGA的自動管理,
Oracle 11g實現了資料庫所有記憶體塊的全自動化管理,使得動態管理SGA和PGA成為現實。
自動記憶體管理的兩個引數:
- MEMORY_TARGET:表示整個ORACLE例項所能使用的記憶體大小,包括PGA和SGA的整體大小,即這個引數是動態的,可以動態控制SGA和PGA的大小。
- MEMORY_MAX_TARGET:這個引數定義了MEMORY_TARGET最大可以達到而不用重啟例項的值,如果沒有設定MEMORY_MAX_TARGET值,預設等於MEMORY_TARGET的值。
使用動態記憶體管理時,SGA_TARGET和PGA_AGGREGATE_TARGET代表它們各自記憶體區域的最小設定,要讓Oracle完全控制記憶體管理,這兩個引數應該設定為0。
B Oracle五種記憶體管理方式
- 自動記憶體管理,即AMM (Automatic Memory Management)
- 自動共享記憶體管理,即ASMM(Automatic Shared Memory Management)
- 手動共享記憶體管理
- 自動PGA管理
- 手動PGA管理
自動記憶體管理(AMM)
預設安裝oracle11g的例項就是AMM方式。通過如下檢視:
示例如下:
1 2 3 4 5 6 7 8 9 10 11 |
SQL> show parameters target NAME TYPE VALUE ———— ——————— —————— ———————- archive_lag_target integer 0 db_flashback_retention_target integer 1860 fast_start_io_target integer 0 fast_start_mttr_target integer 0 memory_max_target big integer 1400M memory_target big integer 1400M pga_aggregate_target big integer 0 sga_target big integer 0 |
注意:如果初始化引數 LOCK_SGA = true ,則 AMM 是不可用的。
自動共享記憶體管理
自動共享記憶體管理是oracle10g引進的,如果要使用自動共享記憶體管理,只需設定MEMORY_TARGET=0,然後顯式指定SGA_TARGET即可。
示例如下:
1 2 3 4 5 |
SQL> alter system set memory_target=0 scope=both; System altered. SQL> alter system set sga_target=1024m scope=both; System altered. SQL> |
手工共享記憶體管理
Oracle9i以及以前版本,只能手工設定共享記憶體管理,如果要使用手動共享記憶體管理,首先需要設定SGA_TARGET 與MEMORY_TARGET為0。
SGA包含主要引數有:
- share_pool_size:共享池大小,建議300-500M之間。
- Log_buffer:日誌緩衝區大小,建議1-3M之間。
- Large_pool_size:大緩衝池大小,非MTS系統,建議在20-30M之間。
- Java_pool_size:java池大小,沒有java應用時,建議10-20M之間。
- db_cache_size:資料緩衝區大小,根據可使用記憶體大小,儘可能大。
自動PAG管理
Oracle9i版本引入了自動PGA管理,如果使用的是AMM管理方式,則無需擔心PGA的配置,但是如果對對AMM管理不放心的話,可以設定自動PGA管理,設定
WORKAREA_SIZE_POLICY = AUTO
然後指定PGA_AGGREGATE_TARGET大小即可。,
手工PAG管理
如果要做到精確的控制PGA,還可以設定手動管理PGA,設定
WORKAREA_SIZE_POLICY = manual
然後分別指定PGA相關引數即可:
PGA相關引數有:
SORT_AREA_SIZE
SORT_AREA_RETAINED_SIZE,
3.Oracle下磁碟儲存效能優化
① 選擇檔案系統存取資料
檔案系統的選擇
- 單一檔案系統(ext2、ext3、xfs等)
- 叢集檔案系統(gfs、ocfs2)
檔案系統儲存優缺點:
優點:管理維護方便。
缺點:資料讀寫要經過作業系統級的快取,效率不是很高。
② ASM(Automatic Storage Management)
ASM優點:
資料可直接讀寫,無需經過作業系統存取效率很高,讀寫效率與直接的原始裝置基本相同。
Oracle提供了專門的管理和維護工具