How to modify Public ip and vip In 11gr2 Rac

yyp2009發表於2014-04-08


# netstat -in
Name  Mtu   Network     Address            Ipkts Ierrs    Opkts Oerrs  Coll
en6   1500  link#2      e4.1f.13.50.f5.8e        0     0    89404 89404     0
en6   1500  192.168.10  192.168.10.1            0     0    89404 89404     0
en8   1500  link#3      5c.f3.fc.f.2e.b2 3936078728     0 3484183160     2     0
en8   1500  172.16.7    172.16.7.60      3936078728     0 3484183160     2     0
en8   1500  10.10.20    10.10.20.50      3936078728     0 3484183160     2     0
en8   1500  172.16.7    172.16.7.62      3936078728     0 3484183160     2     0
en8   1500  172.16.7    172.16.7.64      3936078728     0 3484183160     2     0
en14  1500  link#4      5c.f3.fc.f.2c.ac 2487918075     0 3651663589     2     0
en14  1500  11.11.11    11.11.11.50      2487918075     0 3651663589     2     0
en14  1500  169.254     169.254.34.84    2487918075     0 3651663589     2     0
en16  1500  link#5      5c.f3.fc.f.2e.b3   167005     0      221    32     0
en16  1500  10.128.59   10.128.59.12       167005     0      221    32     0
lo0   16896 link#1                       470377750     0 470436254     0     0
lo0   16896 127         127.0.0.1        470377750     0 470436254     0     0
lo0   16896 ::1%1                        470377750     0 470436254     0     0


172.16.7.60   mmdb1
172.16.7.61   mmdb2
172.16.7.62   mmdb1-vip
172.16.7.63   mmdb2-vip
172.16.7.64   mmdb-scan
11.11.11.50   mmdb1-priv
11.11.11.51   mmdb2-priv
10.128.59.12    mmdb1

主機名 型別    IP地址     網路卡埠
mmdb1 Public ip  10.128.59.12 en16
mmdb1 Vip        10.128.59.15 en16
mmdb2 Public ip  10.128.59.13 en16
mmdb2 Vip        10.128.59.16 en16
mmdb1 Scan-ip    10.128.59.14 en16


10.128.59.12   mmdb1
10.128.59.13   mmdb2

10.128.59.15   mmdb1-vip
10.128.59.16   mmdb2-vip

11.11.11.50   mmdb1-priv
11.11.11.51   mmdb2-priv

10.128.59.14   mmdb-scan

 

開始前的準備工作
1、停監聽、停服務
  srvctl stop listener -n mmdb1
  srvctl stop listener -n mmdb2
  srvctl stop service -d mmdb -s mmdb -n mmdb1
  srvctl stop service -d mmdb -s mmdb -n mmdb2

2、檢視public IP
檢查公共網路介面的配置資訊
# hostname
mmdb1
# ./oifcfg getif
en8  172.16.7.0  global  public
en14  11.11.11.0  global  cluster_interconnect

# hostname
mmdb2
# ./oifcfg getif
en8  172.16.7.0  global  public
en14  11.11.11.0  global  cluster_interconnect

2.1、 修改 Clusterware public IP
刪除PUBLIC IP那個介面:
[root@rac1 bin]# ./oifcfg delif -global en8

在en16介面重新配置PUBLIC IP資訊:
[root@rac1 bin]# ./oifcfg setif -global en16/10.128.59.0:public

重新檢視:
[root@rac2 bin]# ./oifcfg getif
eth1  192.168.56.0  global  cluster_interconnect
eth0  192.168.53.0  global  public

2.2、停止所有節點的資源服務
[root@rac1 bin]# ./crsctl stop has

[root@rac2 bin]# ./crsctl stop has

2.3、修改物理網路卡IP  (此處沒有刪掉eth0網路卡資訊)
[root@rac1 bin]# vi /etc/sysconfig/network-scripts/ifcfg-eth2

[root@rac2 bin]# vi /etc/sysconfig/network-scripts/ifcfg-eth2

重啟network:
[root@rac1 bin]# service network restart
[root@rac2 bin]# service network restart

2.4、修改所有節點hosts檔案

10.128.59.12   mmdb1
10.128.59.13   mmdb2

10.128.59.15   mmdb1-vip
10.128.59.16   mmdb2-vip

11.11.11.50   mmdb1-priv
11.11.11.51   mmdb2-priv

10.128.59.14   mmdb-scan

2.5、啟動所有節點資源服務
[root@rac1 bin]# ./crsctl start has
[root@rac2 bin]# ./crsctl start has
檢視資源狀態:
[root@rac2 bin]# ./crsctl status resourct -t

3、修改VIP
3.1、停止VIP資源和本地
[root@rac2 bin]# ./crsctl stop resource ora.rac1.vip -f    --vip和監聽是關聯的,
[root@rac2 bin]# ./crsctl stop resource ora.rac2.vip -f

# hostname
mmdb1
# ./srvctl config network
Network exists: 1/172.16.7.0/255.255.255.0/en8, type static

3.2、使用root使用者執行 修改VIP: (只需在一個節點執行即可)
[root@rac1 bin]#srvctl modify network -k 1 -S 10.128.59.0/255.255.255.0/en16 -v
[root@node2 bin]# ./srvctl config network
Network exists: 1/192.168.3.0/255.255.255.0/eth2, type static

3.3、啟動VIP資源
[root@rac2 bin]# ./crsctl start resource ora.rac1.vip
CRS-2672: Attempting to start 'ora.rac1.vip' on 'rac1'
CRS-2676: Start of 'ora.rac1.vip' on 'rac1' succeeded
[root@rac2 bin]# ./crsctl start resource ora.rac2.vip
CRS-2672: Attempting to start 'ora.rac2.vip' on 'rac2'
CRS-2676: Start of 'ora.rac2.vip' on 'rac2' succeeded

3.4、啟動本地監聽器並檢視狀態:(只需在一個節點執行)
[root@rac2 bin]# ./srvctl start listener
[root@rac2 bin]# ./srvctl status listener
Listener LISTENER is enabled
Listener LISTENER is running on node(s): rac1,rac2

4、配置SCAN和SCAN_LISTENER    
4.1、檢視當前SCAN和SCAN_LISTENER資訊 
(測試時顯示已經改過,只不過使用ifconfig發現scan_ip和vip沒有繫結在eth2網路卡上,
還是在原來的eth0網路卡上)

[root@node2 bin]# ./srvctl config scan
SCAN name: cluster-scan, Network: 1/192.168.3.0/255.255.255.0/eth2
SCAN VIP name: scan1, IP: /cluster-scan/192.168.3.200    --發現此處還是200,沒有更新
[root@node2 bin]# ./srvctl config scan_listener
SCAN Listener LISTENER_SCAN1 exists. Port: TCP:1521

4.2、停止SCAN和SCAN_listener
[root@rac2 bin]# ./srvctl stop scan_listener
[root@rac2 bin]# ./srvctl stop scan


4.3、刪除SCAN和SCAN監聽
[root@rac2 bin]# ./srvctl remove scan_listener
Remove scan listener? (y/[n]) y
[root@rac2 bin]# ./srvctl remove scan
Remove the scan? (y/[n]) y


4.4、重新新增SCAN
[root@rac2 bin]# ./srvctl add scan -n cluster-scan -k 1 -S 192.168.3.0/255.255.255.0/eth2
4.5、重新新增SCAN監聽器:
[root@rac2 bin]# ./srvctl add scan_listener

4.6、啟動SCAN和SCAN監聽器:
[root@rac2 bin]# ./srvctl start scan
[root@rac2 bin]# ./srvctl start scan_listener

4.7、再次檢視
[root@node1 bin]# ./srvctl config scan
SCAN name: cluster-scan, Network: 1/192.168.3.0/255.255.255.0/eth2
SCAN VIP name: scan1, IP: /cluster-scan/192.168.3.222

5、修改local_listener引數  (以上修改成功後,此引數自動修改了)
6、檢查RAC狀態
./crsctl resource -t
檢視SCAN
./srvctl config scan
./srvctl config scan_listener
./srvctl status listener
grid]$ lsnrctl status
grid]$ lsnrctl status listenere_scan2
SQL> select instance_name, status from gv$instance;

 

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/13750068/viewspace-1137929/,如需轉載,請註明出處,否則將追究法律責任。

相關文章