主機os重灌的節點加回RAC叢集步驟示例(11gR2 RAC)

531968912發表於2017-07-10

主機os重灌的節點加回RAC叢集步驟示例(11gR2 RAC)




很多客戶遇到過這樣的情況:由於RAC其中一個節點的主機OS損壞,需要重灌。而重灌後怎樣把節點加回叢集呢?

這裡將涉及的步驟整理如下:

1. 清除重灌主機的OCR條目(這裡以節點2重灌為例,請將node2換成您節點2的主機名)

# crsctl delete node -n node2
要檢查上述步驟是否成功,在尚存執行“olsnodes”即可,重灌的主機不應該出現在它列出的清單裡。

2. 從OCR中刪除重灌主機的VIP資訊

在尚存節點上執行:
/grid/bin/srvctl remove vip -i node2-v -f

3. 清除重灌主機的GI和DB home的inventory資訊:

在尚存節點執行:
1)GI
/grid/oui/bin/runInstaller -updateNodeList ORACLE_HOME=/grid "CLUSTER_NODES=node1" CRS=TRUE -silent -local

注:這裡CLUSTER_NODES是寫尚存節點的清單

2)在db home下執行同樣的步驟:
/home/oracle/app/oracle/product/11.2.0/dbhome_1/oui/bin/runInstaller -updateNodeList ORACLE_HOME=/home/oracle/app/oracle/product/11.2.0/dbhome_1/ CLUSTER_NODES=node1 -silent -local

4. 下面開始新增節點。執行CVU檢查:

./cluvfy  stage -pre nodeadd -n node2 -verbose

在這裡,由於OCR和voting disk在ASM中,並且使用了ASMLIB,最常見的錯誤是:

ERROR:
PRVF-5449 : Check of Voting Disk location "ORCL:DISK6(ORCL:DISK6)" failed on the following nodes:
node2:No such file or directory

PRVF-5431 : Oracle Cluster Voting Disk configuration check failed

在下面步驟中將解釋這個錯誤的影響。

5. 在尚存節點上執行grid home下的"addNode.sh" .

[oracle@node1] /grid/oui/bin% ./addNode.sh -silent "CLUSTER_NEW_NODES={node2}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={node2-v}"
[oracle@node1] /grid/oui/bin%
在這裡,上述命令沒有任何資訊就退出,實際上addNode.sh根本沒執行。

原因 : ASMLIB在使用中,符合MOS Note : 1267569.1描述的問題
第四步的報錯能幫我們發現它。

解決辦法 :

設定如下環境變數並重新執行addNode.sh。

IGNORE_PREADDNODE_CHECKS=Y
export IGNORE_PREADDNODE_CHECKS

[oracle@node1] /grid/oui/bin% ./addNode.sh -silent "CLUSTER_NEW_NODES={node2}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={node2-v}"
Starting Oracle Universal Installer...

Checking swap space: must be greater than 500 MB.   Actual 12143 MB

Performing tests to see whether nodes node2 are available
............................................................... 100% Done.

Cluster Node Addition Summary
Global Settings
 Source: /grid
 New Nodes
Space Requirements
 New Nodes
    node2

Instantiating scripts for add node (Tuesday, December 21, 2015 3:35:16 AM PST)
.                                                                 1% Done.
Instantiation of add node scripts complete

Copying to remote nodes (Tuesday, December 21, 2015 3:35:18 AM PST)
...............................................................................................                                 96% Done.
Home copied to new nodes

Saving inventory on nodes (Tuesday, December 21, 2015 3:37:57 AM PST)
.                                                               100% Done.
Save inventory complete
WARNING:
The following configuration scripts need to be executed as the "root" user in each cluster node.
/grid/root.sh # On nodes node2
To execute the configuration scripts:
  1. Open a terminal window
  2. Log in as "root"
  3. Run the scripts in each cluster node

The Cluster Node Addition of /grid was successful.
Please check '/tmp/silentInstall.log' for more details.

6. 在重灌節點上執行root.sh來啟動CRS stack.

這會結束該節點上GI的安裝。

7. 在尚存節點上執行DB home下的addNode.sh

/home/oracle/app/oracle/product/11.2.0/dbhome_1/addNode.sh -silent "CLUSTER_NEW_NODES={node2}"
8. 當DB Home新增完成,使用srvctl檢查DB和例項的註冊情況,如需要則新增他們。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/25462274/viewspace-2141840/,如需轉載,請註明出處,否則將追究法律責任。

相關文章