Oracle 11G RAC叢集安裝(1)——安裝前的準備

Z少校發表於2020-02-15

本次Oracle 11G RAC叢集的安裝使用工具:

  1. 資料庫版本:Oracle 11g
  2. grid版本:grid 11g
  3. 系統版本:Centos 6.5

準備工作如下:

一、確定作為節點的主機的網路配置,主要是檢查是否是兩張網路卡,節點的兩張生效的網路卡的裝置名字是否一致。

        如果網路卡的裝置名兩個節點的名稱不一致,在安裝時不會出現錯誤,但在安裝oracle資料庫軟體時會報錯,CRS執行不正常。
因此在安裝grid前發現網路卡名稱不一致要進行更改,方法為:
例如兩個節點的的第二張網路卡名稱不一致,節點rac1的為eth1,節點rac2的為eth2
現在將rac2的網路卡名eth2更改為eth1:
1.將節點rac2的第二張網路卡的停掉:ifdown eth2
2.將rac2的第二張網路卡的配置檔案 ifcfg-eth2 名字改為 ifcfg-eth1,vim開啟後將 DEVICE=eth2 改為 DEVICE=eth1.
3.將/etc/udev/rules.d/70-persistent-net.rules 中的NAME=“eth2” 修改為NAME=“eth1”
例如:

[root@rac1 network-scripts]# cat /etc/udev/rules.d/70-persistent-net.rules
# This file was automatically generated by the /lib/udev/write_net_rules
# program, run by the persistent-net-generator.rules rules file.
#
# You can modify it, as long as you keep each rule on a single
# line, and change only the value of the NAME= key.
# PCI device 0x8086:0x100f (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:34:5b:13", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"
# PCI device 0x8086:0x100f (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:52:b8:54", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1"

4.將rac2主機重啟後裝置名就改為eth1,與節點rac1網路卡名稱一樣了。

二、將兩臺節點機的主機名修改為rac1、rac2,並在/etc/hosts裡設定IP地址:
[root@rac1 ~]# cat  /etc/hosts
#public-ip公網ip
172.16.140.146 rac1
172.16.140.247 rac2
#priv-ip私網ip
186.18.6.222 rac1-priv
186.18.6.186 rac2-priv
#vip
172.16.140.99 rac1-vip
172.16.140.98 rac2-vip
#scan-ip
172.16.140.97 rac-scan

PS: Oracle
RAC叢集安裝需要配置網路包含了公網IP,VIP,私網IP與scan-ip,其中公網IP,VIP,私網IP在兩個節點上都需要,而scan-ip只需要一個。
其中公網IP和vip都是可以正常對外訪問,私網IP是為了叢集各個節點之間聯絡使用,私網IP顧名思義就是自己用的,因此網段設定並沒有特別要求,不衝突即可。
scan-ip網段也是可以正常對外訪問的。叢集安裝後或自動配置到主節點的網路卡上顯示。具體ip功能以後另做介紹。
現在概括的說,兩節點的Oracle
RAC叢集需要跟網路工程師申請5個正常訪問網段的IP地址,自己再配置私網IP地址,安裝前公網IP地址和私網IP地址都可以在系統看到,VIP和scan-ip是在叢集安裝完成後自動配置到網路卡上的。

三、

(1)再節點主機上新增使用者和組(每個節點都需要建立):

[root@rac1 ~]# groupadd -g 1000 oinstall
[root@rac1 ~]# groupadd -g 1200 asmadmin
[root@rac1 ~]# groupadd -g 1201 asmdba
[root@rac1 ~]# groupadd -g 1202 asmoper
[root@rac1 ~]# groupadd -g 1300 dba
[root@rac1 ~]# groupadd -g 1301 oper
[root@rac1 ~]# useradd -m -u 1100 -g oinstall -G asmadmin,asmdba,asmoper,dba -d /home/grid -s /bin/bash grid
[root@rac1 ~]# useradd -m -u 1101 -g oinstall -G dba,oper,asmdba -d /home/oracle -s /bin/bash oracle

(2)將使用者grid新增到dba組:

[root@rac1 app]# gpasswd -a grid dba
Adding user grid to group dba

(3)修改使用者grid和oracle的密碼(所有節點):

[root@rac1 ~]passwd oracle
[root@rac1 ~]passwd grid

(4)確定nobody使用者的資訊:

[root@rac1 ~]# id nobody
uid=99(nobody) gid=99(nobody) groups=99(nobody)

PS: 此使用者無需建立,如果不存在,進行手工建立:

[root@rac1 ~]# /usr/sbin/useradd nobody

(5)禁用防火牆和SELNUX (所有節點)

[root@rac1 ~]service iptables status
[root@rac1 ~]service iptables stop
[root@rac1 ~]chkconfig iptables off
[root@rac1 ~]chkconfig iptables --list

(6)設定/etc/selinux/config 檔案,將SELINUX 設定為disabled。


[root@rac1 ~]# cat /etc/selinux/config

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
# enforcing - SELinux security policy is enforced.
# permissive - SELinux prints warnings instead of enforcing.
# disabled - No SELinux policy is loaded.
SELINUX=disabled
# SELINUXTYPE= can take one of these two values:
# targeted - Targeted processes are protected,
# mls - Multi Level Security protection.
SELINUXTYPE=targeted
四、叢集的時間同步

PS: 我處理的環境都是內網,並不連線網際網路,因此時間同步使用的是叢集自身的時間同步方式。

在 11gR2 中,RAC 在安裝的時候,時間同步可以用兩種方式來實現:

NTP --Linux系統的時間同步伺服器

CTSS --叢集自身的時間同步

當安裝程式發現 NTP協議處於非活動狀態時,安裝叢集時間同步服務將以活動模式自動進行安裝並透過所有節點的時間。
如果發現配置了 NTP ,則以觀察者模式啟動叢集時間同步服務,Oracle Clusterware 不會在叢集中進行活動的時間同步。

Oracle 叢集時間同步服務 (ctssd) 旨在為那些 Oracle RAC 資料庫無法訪問 NTP服務的組 織提供服務。

這裡我們使用CTSS.oracle也建議使用叢集內部時間同步的方式:

–配置CTSS

使用叢集時間同步服務在叢集中提供同步服務,需要解除安裝網路時間協議 (NTP) 及其配置。

要停用 NTP服務,必須停止當前的 ntpd服務,從初始化序列中禁用該服務,並刪 除 ntp.conf 檔案。

要在Linux上完成這些步驟,以 root使用者身份在所有 Oracle RAC節點上執行以下命令:

/sbin/service ntpd stop
Shutting down ntpd: [ OK ]

既有可能會關閉失敗,不過無所謂

chkconfig ntpd off
mv /etc/ntp.conf /etc/ntp.conf.original
chkconfig ntpd --list
ntpd 0:off 1:off 2:off 3:off 4:off 5:off 6:off

還要刪除以下檔案:

rm /var/run/ntpd.pid
五、共享磁碟配置

(1)叢集使用ASM儲存方式,如節點掛載的是裸裝置,透過fdisk -l檢視裝置:

PS:以下輸出是我安裝的實際用的機器中的磁碟配置,這種磁碟路徑操作起來是很方便的,但是這種磁碟掛載路徑大多出現在虛擬雲伺服器上,如果是實體機,則由於儲存做了多鏈路最佳化,掛載路徑就不一樣了,udev的配置檔案處理則無法使用如下方法來生成,至於實體機多鏈路儲存掛載的共享儲存如何做UDEV,我會額外寫一個來做介紹。

[root@rac1 ~]# fdisk -l
Disk /dev/sda: 53.7 GB, 53687091200 bytes
255 heads, 63 sectors/track, 6527 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0004d5d5
Device Boot Start End Blocks Id System
/dev/sda1 * 1 26 204800 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 26 548 4194304 82 Linux swap / Solaris
Partition 2 does not end on cylinder boundary.
/dev/sda3 548 6528 48028672 83 Linux
Disk /dev/sdb: 1073 MB, 1073741824 bytes
34 heads, 61 sectors/track, 1011 cylinders
Units = cylinders of 2074 * 512 = 1061888 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdc: 1073 MB, 1073741824 bytes
34 heads, 61 sectors/track, 1011 cylinders
Units = cylinders of 2074 * 512 = 1061888 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdd: 1073 MB, 1073741824 bytes
34 heads, 61 sectors/track, 1011 cylinders
Units = cylinders of 2074 * 512 = 1061888 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sde: 1073 MB, 1073741824 bytes
34 heads, 61 sectors/track, 1011 cylinders
Units = cylinders of 2074 * 512 = 1061888 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdg: 6308 MB, 6308233216 bytes
195 heads, 62 sectors/track, 1019 cylinders
Units = cylinders of 12090 * 512 = 6190080 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdf: 6308 MB, 6308233216 bytes
195 heads, 62 sectors/track, 1019 cylinders
Units = cylinders of 12090 * 512 = 6190080 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdh: 6308 MB, 6308233216 bytes
195 heads, 62 sectors/track, 1019 cylinders
Units = cylinders of 12090 * 512 = 6190080 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdi: 6308 MB, 6308233216 bytes
195 heads, 62 sectors/track, 1019 cylinders
Units = cylinders of 12090 * 512 = 6190080 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdj: 6308 MB, 6308233216 bytes
195 heads, 62 sectors/track, 1019 cylinders
Units = cylinders of 12090 * 512 = 6190080 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

PS:
磁碟掛載這裡囉嗦幾句:在掛載共享磁碟前跟系統工程師溝通,提前劃分磁碟大小,主要是用於安裝grid的vote盤,我在安裝時選擇劃分三塊30G左右的磁碟來安裝grid(vote磁碟組使用normal冗餘,三塊即可),然後其他磁碟考慮以後磁碟io避免熱點,儘量不是一整塊磁碟掛載。
另外12c的rac要求vote磁碟組大小要比11g要求大,如果後續會考慮升級12C的RAC,可以將用於vote磁碟組的三快盤容量加大,每個50-100G即可。

(2)檢查所有節點的掛載磁碟的scsi開頭的盤號是否一致,命令是:

[root@rac1 ~]# ll /dev/disk/by-id
[root@rac2 ~]# ll /dev/disk/by-id

在此只要使用udev 對映成grid可以識別的磁碟

(3)在使用fdisk -l中檢視的裝置名字母的編號(除了用於安裝系統的盤,一般是sda),執行下列指令碼:

[root@rac1 ~]# for i in b c d e f g h i j ;
> do
> echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""
> done
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525936676145692d66374e542d476c666e", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526a6d47665a522d6f7a39642d65674f47", NAME="asm-diskc", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525a574f6573662d6a4c59642d63375933", NAME="asm-diskd", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552324f6d38394d2d525835432d56415337", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526d7636645a542d577636452d62375874", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45527269467344372d644635642d32527033", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552735232776e502d674542432d75787338", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c455250456471356e2d534170302d65656262", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552386f6a4e56632d4f6661442d32765a54", NAME="asm-diskj", OWNER="grid", GROUP="asmadmin", MODE="0660"

(4)進入到udev目錄中

[root@rac1 ~]]# cd /etc/udev/rules.d/
[root@rac1 ~]# vim 99-oracle.rules

將輸出的內容全部複製到99-oracle.rules中,複製時一定要確認複製完全與命令輸出一致。此檔案一般是不存在的,手動建立即可。

執行命令:

[root@rac1 ~]# start_udev
正在啟動 udev: [確定]

執行命令成功後檢視:

[root@rac1 ~]# ll /dev/asm*
brw-rw---- 1 grid asmadmin 8, 16 1月 5 10:47 /dev/asm-diskb
brw-rw---- 1 grid asmadmin 8, 32 1月 5 10:47 /dev/asm-diskc
brw-rw---- 1 grid asmadmin 8, 48 1月 5 10:47 /dev/asm-diskd
brw-rw---- 1 grid asmadmin 8, 64 1月 5 10:47 /dev/asm-diske
brw-rw---- 1 grid asmadmin 8, 80 1月 5 10:47 /dev/asm-diskf
brw-rw---- 1 grid asmadmin 8, 96 1月 5 10:47 /dev/asm-diskg
brw-rw---- 1 grid asmadmin 8, 112 1月 5 10:47 /dev/asm-diskh
brw-rw---- 1 grid asmadmin 8, 128 1月 5 10:47 /dev/asm-diski
brw-rw---- 1 grid asmadmin 8, 144 1月 5 10:47 /dev/asm-diskj

PS:
叢集之所以在共享磁碟掛在後無法識別,主要是掛在的磁碟的屬主和屬組是root,grid使用者無許可權訪問,因此要想讓grid和oracle識別這些掛載的磁碟必須將磁碟修改許可權,但是共享磁碟的掛載方式會在主機重啟後重新去對映,因此,如果手動去直接修改共享磁碟的許可權,在主機重啟後許可權又會變成root管理員許可權,udev的方式是直接將磁碟重新修改許可權後對映的方式寫到規則中(rules)。

另一種處理方式可以透過將修改許可權的命令寫到主機重啟後訪問的最後一個檔案中去,讓系統自動每次如果主機系統重啟都會執行。已實現共享磁碟的訪問。也就是裸裝置使用raw方式處理共享磁碟。
使用的是Linux的 raw 命令

例如:

[root@rac1 ~]cat /etc/rc.loca
# Oracle Cluster OCRDG
#####
chown grid:asmadmin /dev/mapper/mpathb
chown grid:asmadmin /dev/mapper/mpathc
chown grid:asmadmin /dev/mapper/mpathd
chown grid:asmadmin /dev/mapper/mpathe
chown grid:asmadmin /dev/mapper/mpathf
chmod 660 /dev/mapper/mpathb
chmod 660 /dev/mapper/mpathc
chmod 660 /dev/mapper/mpathd
chmod 660 /dev/mapper/mpathe
chmod 660 /dev/mapper/mpathf
raw /dev/raw/raw1 /dev/mapper/mpathb
raw /dev/raw/raw2 /dev/mapper/mpathc
raw /dev/raw/raw3 /dev/mapper/mpathd
raw /dev/raw/raw4 /dev/mapper/mpathe
raw /dev/raw/raw5 /dev/mapper/mpathf
sleep 2
chown grid:asmadmin /dev/raw/raw1
chown grid:asmadmin /dev/raw/raw2
chown grid:asmadmin /dev/raw/raw3
chown grid:asmadmin /dev/raw/raw4
chown grid:asmadmin /dev/raw/raw5
chmod 660 /dev/raw/raw1
chmod 660 /dev/raw/raw2
chmod 660 /dev/raw/raw3
chmod 660 /dev/raw/raw4
chmod 660 /dev/raw/raw5

這是以前使用的老的方式處理共享磁碟,不過只能在11g以以前舊的版本中,12c版本只支援udev的方式處理共享磁碟。不在支援裸裝置raw方式處理。

(5)在上述操作節點1上執行完畢後,將建立的99-oracle.rules 傳給節點2,然後節點2執行 start_udev ,開啟後查詢ll /dev/asm* 得到和節點1同樣的結果

六、建立目錄結構(所有節點)

1.在節點1和節點2上分別執行:

[root@rac1 ~]mkdir -p /oracle/app/grid/11.2.0.4
[root@rac1 ~]mkdir -p /oracle/grid
[root@rac1 ~]chown -R grid:oinstall /oracle
[root@rac1 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1
[root@rac1 ~]chown -R oracle:oinstall /oracle/app/oracle
[root@rac1 ~]chmod -R 775 /oracle
[root@rac2 ~]mkdir -p /oracle/app/grid/11.2.0.4
[root@rac2 ~]mkdir -p /oracle/grid
[root@rac2 ~]chown -R grid:oinstall /oracle
[root@rac2 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1
[root@rac2 ~]chown -R oracle:oinstall /oracle/app/oracle
[root@rac2 ~]chmod -R 775 /oracle

2.配置環境變數

Grid 使用者

修改grid 使用者的.bash_profile. 注意每個節點的不同內容:

節點1:

[root@rac1 ~]# su - grid
[grid@rac1 ~]$ vim .bash_profile
export ORACLE_SID=+ASM1
export ORACLE_BASE=/oracle/grid
export ORACLE_HOME=/oracle/app/grid/11.2.0.4
export PATH=$ORACLE_HOME/bin:$PATH

節點2:

[root@rac2 ~]# su - grid
[grid@rac2 ~]$ vim .bash_profile
export ORACLE_SID=+ASM2
export ORACLE_BASE=/oracle/grid
export ORACLE_HOME=/oracle/app/grid/11.2.0.4
export PATH=$ORACLE_HOME/bin:$PATH

(PATH的配置資訊要在grid使用者下在命令列上輸入 echo $PATH 得到的輸出結果)

Oracle 使用者

節點1:

[root@rac1 ~]# su - oracle
[grid@rac1 ~]$ vim .bash_profile
export ORACLE_SID=student1
export ORACLE_BASE=/oracle/app/oracle
export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1
export PATH=$ORACLE_HOME/bin:$PATH

節點2:

[root@rac2 ~]# su - oracle
[grid@rac2 ~]$ vim .bash_profile
export ORACLE_SID=student2
export ORACLE_BASE=/oracle/app/oracle
export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1
export PATH=$ORACLE_HOME/bin:$PATH
七、為安裝使用者設定資源限制,兩個節點都做

要改善 Linux 系統上的軟體效能,必須對 Oracle軟體所有者使用者(grid、oracle)增加以下資源限制:

Shell 限制 limits.conf 中的條目 硬限制

開啟檔案描述符的最大數 nofile 65536

可用於單個使用者的最大程式數 nproc 16384

程式堆疊段的最大大小 stack 10240

以 root 使用者身份,在每個 Oracle RAC 節點上,在 /etc/security/limits.conf 檔案中新增

如下內容,或者執行執行如下命令:(整個複製到命令列)

cat >> /etc/security/limits.conf <<EOF
grid soft nproc 2047
grid hard nproc 16384
grid soft nofile 1024
grid hard nofile 65536
oracle soft nproc 2047
oracle hard nproc 16384
oracle soft nofile 1024
oracle hard nofile 65536
EOF
八、 修改/etc/pam.d/login

在每個 Oracle RAC 節點上,在 /etc/pam.d/login 檔案中新增或編輯下面一行內容:(整個複製到命令列)

cat >> /etc/pam.d/login <<EOF
session required pam_limits.so
EOF

shell 的限制

對預設的 shell 啟動檔案進行以下更改,以便更改所有 Oracle安裝所有者的 ulimit設定:

九、

在每個 Oracle RAC 節點上,對於 Bourne、Bash 或 Korn shell,透過執行以下命令將以下行新增到 /etc/profile檔案:(整個複製到命令列)

cat >> /etc/profile <<EOF
if [ /$USER = "oracle" ] || [ /$USER = "grid" ]; then
if [ /$SHELL = "/bin/ksh" ]; then
ulimit -p 16384
ulimit -n 65536
else
ulimit -u 16384 -n 65536
fi
umask 022
fi
EOF
十、在每個 Oracle RAC 節點上,寫關於核心引數的配置檔案:
vim /etc/sysctl.conf
kernel.shmmax = 4294967295
kernel.shmall = 2097152
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.file-max = 6815744
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default=262144
net.core.rmem_max=4194304
net.core.wmem_default=262144
net.core.wmem_max=1048576
fs.aio-max-nr=1048576

以上操作完成後在每個 Oracle RAC 節點上執行:

sysctl -p

在每個 Oracle RAC 節點上,安裝相關的依賴包:

yum -y install autoconf automake binutils-devel bison cpp dos2unix ftp gcc gcc-c++ lrzsz python-deve compat-db compat-db42 compat-db43 compat-gcc-34 compat-gcc-34-c++ compat-libstdc++-33 glibc-* glibc-*.i686 libXpm-*.i686 libXp.so.6 libXt.so.6 libXtst.so.6 libgcc_s.so.1 ksh libXp libaio-devel numactl numactl-devel unixODBC unixODBC-devel compat-libcap* elfutils-libelf*

PS: 如果使用到了oracleasm相關的包需要從官方網站下載並進行安裝:

rpm -ivh oracleasmlib-2.0.4-1.el6.x86_64.rpm
rpm -ivh oracleasm-support-2.1.8-1.el6.x86_64.rpm

yum源的配置使用的是本地yum源,配置方法可參考: Linux配置本地yum源

在安裝之前執行grid安裝檢測,使用的是grid安裝包解壓包中runcluvfy.sh,命令為:

[grid@rac1 ~]$ ./runcluvfh.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose

從輸出的文字中檢測那些檢查項沒有透過,做針對性處理。

PS:
一般檢測都是透過的,只有在使用者等同性檢測中會出現使用者等同性失敗導致不透過,可以透過手動配置節點間的SSH免密訪問來解決。處理檢測不透過的項後再次檢測沒有問題後就可以正式進入grid與Oracle軟體的安裝階段了

        以上Oracle RAC叢集安裝前的準備工作,屬於個人操作方式。希望有不同方式或者更最佳化的方式安裝的同學可以共同學習交流,共同提高知識技能。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/30484956/viewspace-2675713/,如需轉載,請註明出處,否則將追究法律責任。

相關文章