Oracle 9.2.0.4 RAC + Linux AS3.0 如何動態加入一個新的節點
如何動態加入一個新的9i RAC節點
目的:
這篇文章說明了在不需要shutdown資料庫及重新啟動已經在執行的服務的情況下動態加入一個新的9i RAC節點的大致步驟 (其中RAC硬體的配置修改, HBA卡及驅動安裝,OCFS軟體的安裝,掛載點建立,共享磁碟的掛載 ,Linux引數修改, hosts修改等和RAC安裝配置時候差不多,沒有寫出來 ) 。
配置:
這篇文章基於下面的RAC配置,但是可以應用於在Linux下的Oracle9i (9.2.0) RAC :
Red Hat Linux Advanced Server 2.1 with Errata 25 (2.4.9-e.40)
Oracle Cluster Manager 9.2.0.4.0
Oracle9i Real Application Cluster version 9.2.0.4.0
Oracle Server Enterprise Edition 9.2.0.4.0 for Linux
Two nodes, existing RAC cluster
One node , standalone RAC server
這個過程在Red Hat Enterprise Linux 3 (ES) 下的Oracle9i RAC 9.2.0.5 上測試成功。
現有的雙節點RAC配置 :
Hostname Interface IP Address
existingnodes dell-node1 external 192.168.0.201
dell-pri1 internal 10.1.1.5
dell-node2 external 192.168.0.203
dell-pri2 internal 10.1.1.6
newnode dell-node3 external 192.168.0.205
dell-pri3 internal 10.1.1.7
已經存在的兩個節點的Oracle Cluster Manager(ORACM) 配置檔案
$ORACLE_HOME/oracm/admin/cmcfg.ora
兩個已經存在的節點的Cluster Manager 的配置如下:
節點1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer
節點2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer
修改存在的兩個節點的Oracle Cluster Manager(ORACM) 配置檔案
$ORACLE_HOME/oracm/admin/cmcfg.ora
在所有存在的節點(這裡是2個節點)上修改OCM配置檔案,加入新的節點的Hostname 詳細資訊 。這個動作必須在新的節點上配置或開啟Cluster Manager 之前完成 。 不這樣做可能導致在新的節點或舊的節點上Cluster Manager 的失敗 。
注意: 編輯而不是複製原始的 cmcfg.ora 檔案(用於開啟CM Service), 複製正在被使用的配置檔案可能導致已經存在的節點上OCM執行的失敗 。
節點1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer
節點2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer
在新的節點上配置Oracle Cluster Manager(ORACM) 配置檔案
這一步假設Oracle Cluster Manager 軟體已經正確的被安裝到新的節點上(在新的節點上安裝OCM比較容易),使它能夠加入到已經存在的RAC節點上 。 在RAC的所有節點上的Cluster Manager 版本必須一樣 。
如何檢查已經存在OCM的版本: 開啟CM的log檔案, 可以檢視到OCM的版本 。
dell-node2# grep –i version cm.log | more
在存在的兩個節點上修改OCM配置檔案完成後,就可以在安裝了Oracle Cluster Manager 的新的節點上修改cmcfg.ora 配置檔案了, 在新節點的配置檔案中加入新節點的Hostname 等資訊 。新節點上的cmcfg.ora 配置檔案如下 :
節點3 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri3
KernelModuleName=hangcheck-timer
目的:
這篇文章說明了在不需要shutdown資料庫及重新啟動已經在執行的服務的情況下動態加入一個新的9i RAC節點的大致步驟 (其中RAC硬體的配置修改, HBA卡及驅動安裝,OCFS軟體的安裝,掛載點建立,共享磁碟的掛載 ,Linux引數修改, hosts修改等和RAC安裝配置時候差不多,沒有寫出來 ) 。
配置:
這篇文章基於下面的RAC配置,但是可以應用於在Linux下的Oracle9i (9.2.0) RAC :
Red Hat Linux Advanced Server 2.1 with Errata 25 (2.4.9-e.40)
Oracle Cluster Manager 9.2.0.4.0
Oracle9i Real Application Cluster version 9.2.0.4.0
Oracle Server Enterprise Edition 9.2.0.4.0 for Linux
Two nodes, existing RAC cluster
One node , standalone RAC server
這個過程在Red Hat Enterprise Linux 3 (ES) 下的Oracle9i RAC 9.2.0.5 上測試成功。
現有的雙節點RAC配置 :
Hostname Interface IP Address
existingnodes dell-node1 external 192.168.0.201
dell-pri1 internal 10.1.1.5
dell-node2 external 192.168.0.203
dell-pri2 internal 10.1.1.6
newnode dell-node3 external 192.168.0.205
dell-pri3 internal 10.1.1.7
已經存在的兩個節點的Oracle Cluster Manager(ORACM) 配置檔案
$ORACLE_HOME/oracm/admin/cmcfg.ora
兩個已經存在的節點的Cluster Manager 的配置如下:
節點1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer
節點2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer
修改存在的兩個節點的Oracle Cluster Manager(ORACM) 配置檔案
$ORACLE_HOME/oracm/admin/cmcfg.ora
在所有存在的節點(這裡是2個節點)上修改OCM配置檔案,加入新的節點的Hostname 詳細資訊 。這個動作必須在新的節點上配置或開啟Cluster Manager 之前完成 。 不這樣做可能導致在新的節點或舊的節點上Cluster Manager 的失敗 。
注意: 編輯而不是複製原始的 cmcfg.ora 檔案(用於開啟CM Service), 複製正在被使用的配置檔案可能導致已經存在的節點上OCM執行的失敗 。
節點1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer
節點2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer
在新的節點上配置Oracle Cluster Manager(ORACM) 配置檔案
這一步假設Oracle Cluster Manager 軟體已經正確的被安裝到新的節點上(在新的節點上安裝OCM比較容易),使它能夠加入到已經存在的RAC節點上 。 在RAC的所有節點上的Cluster Manager 版本必須一樣 。
如何檢查已經存在OCM的版本: 開啟CM的log檔案, 可以檢視到OCM的版本 。
dell-node2# grep –i version cm.log | more
在存在的兩個節點上修改OCM配置檔案完成後,就可以在安裝了Oracle Cluster Manager 的新的節點上修改cmcfg.ora 配置檔案了, 在新節點的配置檔案中加入新節點的Hostname 等資訊 。新節點上的cmcfg.ora 配置檔案如下 :
節點3 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri3
KernelModuleName=hangcheck-timer
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/35489/viewspace-584631/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Oracle9.2.0.4 RAC系統加入新節點Oracle
- Linux AS3.0 下安裝Oracle9.2.0.4LinuxS3Oracle
- RAC加入新節點 - Add Node to Your Oracle RAC 10g Cluster on LinuxOracleLinux
- Oracle9.2.0.4 RAC 三節點引數設定Oracle
- Oracle 10g RAC 安裝及加入新節點文件密碼Oracle 10g密碼
- Oracle RAC 一個節點不能自動啟動 怪問題Oracle
- Oracle10g RAC 刪除及加入節點Oracle
- Oracle10g RAC 刪除及加入節點 - updatedOracle
- Oracle 19c rac安裝,只能啟動一個節點的ASMOracleASM
- jquery如何新增一個新的元素節點jQuery
- RAC資料庫只能啟動一個節點的故障資料庫
- ORACLE 10G增加一個節點rac3Oracle 10g
- oracle 10g rac,刪除故障節點並新增新節點Oracle 10g
- 向基於 Linux 的 Oracle RAC 10g 叢集新增新節點LinuxOracle
- Oracle RAC新增節點Oracle
- Oracle RAC 新增節點Oracle
- Oracle10203RAC環境新增新節點(一)Oracle
- 檢視oracle rac的節點Oracle
- 【RAC】Oracle11g RAC新增新節點相關事項Oracle
- RAC一個節點恢復另一個節點在帶庫上的備份
- [ZT] 向基於Linux的Oracle RAC 10g叢集新增新節點LinuxOracle
- 向基於 Linux 的 Oracle RAC 10g 叢集新增新節點(zt)LinuxOracle
- 如何在10gRAC上加入一個節點(internet資料)
- Oracle Rac 刪除節點Oracle
- 虛擬機器環境下RAC加入節點虛擬機
- RHEL5 Oracle 10g RAC新增新節點Oracle 10g
- oracle 11gR2 rac 兩節點有一個節點down掉問題處理Oracle
- 【RAC】Oracle10g RAC 節點重配的方式Oracle
- 10g RAC中加入新節點,已存在的節點例項都在繁忙使用,可以不停機掛載共享磁碟 ?
- Oracle10g RAC 單獨關閉一個節點(維護)Oracle
- oracle 9i for linux 9.2.0.4 中開啟autotrace中的一個bug。OracleLinux
- [網摘] Oracle RAC新增節點Oracle
- 兩節點的10gRAC加入新節點後cluster_database_instances=2Database
- asm例項自動dismount導致rac一個節點當機ASM
- Oracle10203RAC環境新增新節點(六)Oracle
- Oracle10203RAC環境新增新節點(五)Oracle
- Oracle10203RAC環境新增新節點(四)Oracle
- Oracle10203RAC環境新增新節點(三)Oracle