Oracle 9.2.0.4 RAC + Linux AS3.0 如何動態加入一個新的節點

tolywang發表於2009-04-04
如何動態加入一個新的9i RAC節點


目的:
這篇文章說明了在不需要shutdown資料庫及重新啟動已經在執行的服務的情況下動態加入一個新的9i RAC節點的大致步驟 (其中RAC硬體的配置修改, HBA卡及驅動安裝,OCFS軟體的安裝,掛載點建立,共享磁碟的掛載 ,Linux引數修改, hosts修改等和RAC安裝配置時候差不多,沒有寫出來 ) 。  

配置:
       這篇文章基於下面的RAC配置,但是可以應用於在Linux下的Oracle9i (9.2.0) RAC :  
     Red Hat Linux Advanced Server 2.1 with Errata 25 (2.4.9-e.40)
     Oracle Cluster Manager 9.2.0.4.0
     Oracle9i Real Application Cluster version 9.2.0.4.0
     Oracle Server Enterprise Edition 9.2.0.4.0 for Linux  
     Two nodes,  existing RAC cluster
     One node , standalone RAC server  
這個過程在Red Hat Enterprise Linux 3 (ES) 下的Oracle9i RAC 9.2.0.5 上測試成功。

現有的雙節點RAC配置 :
      
        Hostname        Interface        IP Address
existingnodes dell-node1        external        192.168.0.201
        dell-pri1        internal        10.1.1.5
        dell-node2        external        192.168.0.203
        dell-pri2        internal        10.1.1.6
newnode        dell-node3        external        192.168.0.205
        dell-pri3        internal        10.1.1.7



已經存在的兩個節點的Oracle Cluster Manager(ORACM) 配置檔案
$ORACLE_HOME/oracm/admin/cmcfg.ora   
兩個已經存在的節點的Cluster Manager 的配置如下:  
節點1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer   

節點2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer   



修改存在的兩個節點的Oracle Cluster Manager(ORACM) 配置檔案     
$ORACLE_HOME/oracm/admin/cmcfg.ora   
在所有存在的節點(這裡是2個節點)上修改OCM配置檔案,加入新的節點的Hostname 詳細資訊 。這個動作必須在新的節點上配置或開啟Cluster Manager 之前完成 。 不這樣做可能導致在新的節點或舊的節點上Cluster Manager 的失敗 。
注意: 編輯而不是複製原始的 cmcfg.ora 檔案(用於開啟CM Service),   複製正在被使用的配置檔案可能導致已經存在的節點上OCM執行的失敗 。   
節點1 :  
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2  dell-pri3
PublicNodeNames=dell-node1 dell-node2  dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer   

節點2 :   
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2  dell-pri3   
PublicNodeNames=dell-node1 dell-node2  dell-node3   
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer   



在新的節點上配置Oracle Cluster Manager(ORACM) 配置檔案     
      這一步假設Oracle Cluster Manager 軟體已經正確的被安裝到新的節點上(在新的節點上安裝OCM比較容易),使它能夠加入到已經存在的RAC節點上 。 在RAC的所有節點上的Cluster Manager 版本必須一樣 。  
      如何檢查已經存在OCM的版本:   開啟CM的log檔案, 可以檢視到OCM的版本  。  
dell-node2#  grep  –i  version  cm.log  | more   
      在存在的兩個節點上修改OCM配置檔案完成後,就可以在安裝了Oracle Cluster Manager 的新的節點上修改cmcfg.ora 配置檔案了, 在新節點的配置檔案中加入新節點的Hostname 等資訊 。新節點上的cmcfg.ora 配置檔案如下 :
節點3 :     
HeartBeat=15000   
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2  dell-pri3   
PublicNodeNames=dell-node1 dell-node2  dell-node3   
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri3   
KernelModuleName=hangcheck-timer

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/35489/viewspace-584631/,如需轉載,請註明出處,否則將追究法律責任。

相關文章