11g R2新特徵:oracle cluster health moniter (CHM) 簡介

dingzihan發表於2014-05-28
用top進行伺服器檢查時,發現一個程式消耗CPU比較多,於是查詢資料學習了下。
13934 root      RT   0  760m  94m  55m S  8.8  0.1  12973:32 osysmond.bin
cluster health monitor (CHM) 是一個oracle提供的工具,用來自動收集作業系統的資源(cpu、記憶體、swap、程式、I/O以及網路等)的使用情況。CHM會每秒收集一次資料。

這些系統資源資料對於診斷叢集系統的節點重啟、hang、例項驅逐、效能問題等非常有幫助。另外,使用者可以使用CHM及早發現一些系統負載高、記憶體異常等問題,從而避免產生更嚴重的問題。

在叢集中,可以通過下面的命令檢視CHM對應的資源(ora.crf)的狀態:
[grid@RAC-1 ~]$ crsctl stat res -t -init
--------------------------------------------------------------------------------
NAME           TARGET  STATE        SERVER                   STATE_DETAILS       
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.asm
      1        ONLINE  ONLINE       rac-1                    Started             
ora.cluster_interconnect.haip
      1        ONLINE  ONLINE       rac-1                                        
ora.crf
      1        ONLINE  ONLINE       rac-1                                        
ora.crsd
      1        ONLINE  ONLINE       rac-1                                        
ora.cssd
      1        ONLINE  ONLINE       rac-1                                        
ora.cssdmonitor
      1        ONLINE  ONLINE       rac-1                                        
ora.ctssd
      1        ONLINE  ONLINE       rac-1                    OBSERVER            
CHM主要包括兩個服務:
1)system monitor server (osysmond):這個服務在所有節點都會執行,osysmond會將每個節點的資源使用情況傳送給cluster  logger  server,後者將會把所有節點的資訊都接受並儲存到CHM的資料庫。
$ps -ef|grep osysmond

2) cluster logger  service  (ologgerd):
在一個叢集中的ologgerd會有一個主節點(master),還有一個備節點(standby)。當ologger在當前節點遇到問題無法啟動後,它會在備用節點啟用。
主節點:
$ps -ef|grep  ologgerd
備節點:
$ps  -ef|grep  ologgerd

CHM Repository: 用於存放收集到的資料,預設情況下,會存在於grid_home下,需要1GB的磁碟空間,每個節點大約每天會佔用0.5G空間。可以使用oclumon來調整它的存放路徑以及允許的空間大小。(最多隻能儲存3天的資料)
檢視當前的設定:
$oclumon manager -get reppath

$oclumon  manager -get repsize
獲取CHM生成的資料方法為oclumon

 ./oclumon dumpnodeview -allnodes -v -s "2014-05-28 14:00:00" -e "2014-05-28 14:15:00" >/tmp/chm1.txt 
-s 表示開始時間    -e表示結束時間
[root@RAC-1 tmp]# more chm1.txt |more


----------------------------------------
Node: rac-1 Clock: '05-28-14 14.00.04' SerialNo:1309648
----------------------------------------


SYSTEM:
#cpus: 64 cpu: 0.69 cpuq: 3 physmemfree: 32022376 physmemtotal: 132281976 mcache: 94214228 swap
free: 138412016 swaptotal: 138412016 ior: 608 iow: 763 ios: 199 swpin: 0 swpout: 0 pgin: 238 pg
out: 379 netr: 52.986 netw: 40.369 procs: 1896 rtprocs: 205 #fds: 10698 #sysfdlimit: 6815744 #d
isks: 213 #nics: 3  nicErrors: 0


TOP CONSUMERS:
topcpu: 'osysmond.bin(13934) 12.1' topprivmem: 'java(54844) 309616' topshm: 'oracle(66720) 2525
0140' topfd: 'ohasd.bin(13768) 715' topthread: 'java(54844) 84'


PROCESSES:


name: 'osysmond.bin' pid: 13934 #procfdlimit: 65536 cpuusage: 12.1 privmem: 39420 shm: 57216 #f
d: 59 #threads: 10 priority: -100 nice: 0
name: 'oracle' pid: 66673 #procfdlimit: 65536 cpuusage: 1.40 privmem: 1904 shm: 15308 #fd: 34 #
threads: 1 priority: -2 nice: 0
name: 'oracle' pid: 56009 #procfdlimit: 65536 cpuusage: 1.40 privmem: 2180 shm: 12924 #fd: 34 #
threads: 1 priority: -2 nice: 0
name: 'ocssd.bin' pid: 55720 #procfdlimit: 65536 cpuusage: 1.0 privmem: 82568 shm: 55048 #fd: 1
86 #threads: 30 priority: -100 nice: 0
name: 'oracle' pid: 66688 #procfdlimit: 65536 cpuusage: 0.80 privmem: 20524 shm: 48328 #fd: 44 
#threads: 1 priority: 20 nice: 0
name: 'oraagent.bin' pid: 66565 #procfdlimit: 65536 cpuusage: 0.80 privmem: 31780 shm: 16576 #f
d: 44 #threads: 14 priority: 20 nice: 0
name: 'orarootagent.bi' pid: 56196 #procfdlimit: 65536 cpuusage: 0.80 privmem: 24276 shm: 13696
 #fd: 18 #threads: 9 priority: 20 nice: 0
name: 'crsd.bin' pid: 56070 #procfdlimit: 65536 cpuusage: 0.80 privmem: 33540 shm: 23512 #fd: 1
26 #threads: 44 priority: 20 nice: 0
name: 'orarootagent.bi' pid: 13917 #procfdlimit: 65536 cpuusage: 0.80 privmem: 38304 shm: 15944
--More--
 

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/22969361/viewspace-1171817/,如需轉載,請註明出處,否則將追究法律責任。

相關文章