Oracle 11G RAC叢集安裝(1)——安裝前的準備
本次Oracle 11G RAC叢集的安裝使用工具:
- 資料庫版本:Oracle 11g
- grid版本:grid 11g
- 系統版本:Centos 6.5
準備工作如下:
一、確定作為節點的主機的網路配置,主要是檢查是否是兩張網路卡,節點的兩張生效的網路卡的裝置名字是否一致。
如果網路卡的裝置名兩個節點的名稱不一致,在安裝時不會出現錯誤,但在安裝oracle資料庫軟體時會報錯,CRS執行不正常。
因此在安裝grid前發現網路卡名稱不一致要進行更改,方法為:
例如兩個節點的的第二張網路卡名稱不一致,節點rac1的為eth1,節點rac2的為eth2
現在將rac2的網路卡名eth2更改為eth1:
1.將節點rac2的第二張網路卡的停掉:ifdown eth2
2.將rac2的第二張網路卡的配置檔案 ifcfg-eth2 名字改為 ifcfg-eth1,vim開啟後將 DEVICE=eth2 改為 DEVICE=eth1.
3.將/etc/udev/rules.d/70-persistent-net.rules 中的NAME=“eth2” 修改為NAME=“eth1”
例如:
[root@rac1 network-scripts]# cat /etc/udev/rules.d/70-persistent-net.rules # This file was automatically generated by the /lib/udev/write_net_rules # program, run by the persistent-net-generator.rules rules file. # # You can modify it, as long as you keep each rule on a single # line, and change only the value of the NAME= key. # PCI device 0x8086:0x100f (e1000) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:34:5b:13", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0" # PCI device 0x8086:0x100f (e1000) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:52:b8:54", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1"
4.將rac2主機重啟後裝置名就改為eth1,與節點rac1網路卡名稱一樣了。
二、將兩臺節點機的主機名修改為rac1、rac2,並在/etc/hosts裡設定IP地址:
[root@rac1 ~]# cat /etc/hosts #public-ip公網ip 172.16.140.146 rac1 172.16.140.247 rac2 #priv-ip私網ip 186.18.6.222 rac1-priv 186.18.6.186 rac2-priv #vip 172.16.140.99 rac1-vip 172.16.140.98 rac2-vip #scan-ip 172.16.140.97 rac-scan
PS: Oracle
RAC叢集安裝需要配置網路包含了公網IP,VIP,私網IP與scan-ip,其中公網IP,VIP,私網IP在兩個節點上都需要,而scan-ip只需要一個。
其中公網IP和vip都是可以正常對外訪問,私網IP是為了叢集各個節點之間聯絡使用,私網IP顧名思義就是自己用的,因此網段設定並沒有特別要求,不衝突即可。
scan-ip網段也是可以正常對外訪問的。叢集安裝後或自動配置到主節點的網路卡上顯示。具體ip功能以後另做介紹。
現在概括的說,兩節點的Oracle
RAC叢集需要跟網路工程師申請5個正常訪問網段的IP地址,自己再配置私網IP地址,安裝前公網IP地址和私網IP地址都可以在系統看到,VIP和scan-ip是在叢集安裝完成後自動配置到網路卡上的。
三、
(1)再節點主機上新增使用者和組(每個節點都需要建立):
[root@rac1 ~]# groupadd -g 1000 oinstall [root@rac1 ~]# groupadd -g 1200 asmadmin [root@rac1 ~]# groupadd -g 1201 asmdba [root@rac1 ~]# groupadd -g 1202 asmoper [root@rac1 ~]# groupadd -g 1300 dba [root@rac1 ~]# groupadd -g 1301 oper [root@rac1 ~]# useradd -m -u 1100 -g oinstall -G asmadmin,asmdba,asmoper,dba -d /home/grid -s /bin/bash grid [root@rac1 ~]# useradd -m -u 1101 -g oinstall -G dba,oper,asmdba -d /home/oracle -s /bin/bash oracle
(2)將使用者grid新增到dba組:
[root@rac1 app]# gpasswd -a grid dba Adding user grid to group dba
(3)修改使用者grid和oracle的密碼(所有節點):
[root@rac1 ~]passwd oracle [root@rac1 ~]passwd grid
(4)確定nobody使用者的資訊:
[root@rac1 ~]# id nobody uid=99(nobody) gid=99(nobody) groups=99(nobody)
PS: 此使用者無需建立,如果不存在,進行手工建立:
[root@rac1 ~]# /usr/sbin/useradd nobody
(5)禁用防火牆和SELNUX (所有節點)
[root@rac1 ~]service iptables status [root@rac1 ~]service iptables stop [root@rac1 ~]chkconfig iptables off [root@rac1 ~]chkconfig iptables --list
(6)設定/etc/selinux/config 檔案,將SELINUX 設定為disabled。
[root@rac1 ~]# cat /etc/selinux/config
# This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - No SELinux policy is loaded. SELINUX=disabled # SELINUXTYPE= can take one of these two values: # targeted - Targeted processes are protected, # mls - Multi Level Security protection. SELINUXTYPE=targeted
四、叢集的時間同步
PS: 我處理的環境都是內網,並不連線網際網路,因此時間同步使用的是叢集自身的時間同步方式。
在 11gR2 中,RAC 在安裝的時候,時間同步可以用兩種方式來實現:
NTP --Linux系統的時間同步伺服器
CTSS --叢集自身的時間同步
當安裝程式發現 NTP協議處於非活動狀態時,安裝叢集時間同步服務將以活動模式自動進行安裝並透過所有節點的時間。
如果發現配置了 NTP ,則以觀察者模式啟動叢集時間同步服務,Oracle Clusterware 不會在叢集中進行活動的時間同步。
Oracle 叢集時間同步服務 (ctssd) 旨在為那些 Oracle RAC 資料庫無法訪問 NTP服務的組 織提供服務。
這裡我們使用CTSS.oracle也建議使用叢集內部時間同步的方式:
–配置CTSS
使用叢集時間同步服務在叢集中提供同步服務,需要解除安裝網路時間協議 (NTP) 及其配置。
要停用 NTP服務,必須停止當前的 ntpd服務,從初始化序列中禁用該服務,並刪 除 ntp.conf 檔案。
要在Linux上完成這些步驟,以 root使用者身份在所有 Oracle RAC節點上執行以下命令:
/sbin/service ntpd stop Shutting down ntpd: [ OK ]
既有可能會關閉失敗,不過無所謂
chkconfig ntpd off mv /etc/ntp.conf /etc/ntp.conf.original chkconfig ntpd --list ntpd 0:off 1:off 2:off 3:off 4:off 5:off 6:off
還要刪除以下檔案:
rm /var/run/ntpd.pid
五、共享磁碟配置
(1)叢集使用ASM儲存方式,如節點掛載的是裸裝置,透過fdisk -l檢視裝置:
PS:以下輸出是我安裝的實際用的機器中的磁碟配置,這種磁碟路徑操作起來是很方便的,但是這種磁碟掛載路徑大多出現在虛擬雲伺服器上,如果是實體機,則由於儲存做了多鏈路最佳化,掛載路徑就不一樣了,udev的配置檔案處理則無法使用如下方法來生成,至於實體機多鏈路儲存掛載的共享儲存如何做UDEV,我會額外寫一個來做介紹。
[root@rac1 ~]# fdisk -l Disk /dev/sda: 53.7 GB, 53687091200 bytes 255 heads, 63 sectors/track, 6527 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0004d5d5 Device Boot Start End Blocks Id System /dev/sda1 * 1 26 204800 83 Linux Partition 1 does not end on cylinder boundary. /dev/sda2 26 548 4194304 82 Linux swap / Solaris Partition 2 does not end on cylinder boundary. /dev/sda3 548 6528 48028672 83 Linux Disk /dev/sdb: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdc: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdd: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sde: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdg: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdf: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdh: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdi: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdj: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000
PS:
磁碟掛載這裡囉嗦幾句:在掛載共享磁碟前跟系統工程師溝通,提前劃分磁碟大小,主要是用於安裝grid的vote盤,我在安裝時選擇劃分三塊30G左右的磁碟來安裝grid(vote磁碟組使用normal冗餘,三塊即可),然後其他磁碟考慮以後磁碟io避免熱點,儘量不是一整塊磁碟掛載。
另外12c的rac要求vote磁碟組大小要比11g要求大,如果後續會考慮升級12C的RAC,可以將用於vote磁碟組的三快盤容量加大,每個50-100G即可。
(2)檢查所有節點的掛載磁碟的scsi開頭的盤號是否一致,命令是:
[root@rac1 ~]# ll /dev/disk/by-id [root@rac2 ~]# ll /dev/disk/by-id
在此只要使用udev 對映成grid可以識別的磁碟
(3)在使用fdisk -l中檢視的裝置名字母的編號(除了用於安裝系統的盤,一般是sda),執行下列指令碼:
[root@rac1 ~]# for i in b c d e f g h i j ; > do > echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\"" > done KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525936676145692d66374e542d476c666e", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526a6d47665a522d6f7a39642d65674f47", NAME="asm-diskc", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525a574f6573662d6a4c59642d63375933", NAME="asm-diskd", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552324f6d38394d2d525835432d56415337", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526d7636645a542d577636452d62375874", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45527269467344372d644635642d32527033", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552735232776e502d674542432d75787338", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c455250456471356e2d534170302d65656262", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552386f6a4e56632d4f6661442d32765a54", NAME="asm-diskj", OWNER="grid", GROUP="asmadmin", MODE="0660"
(4)進入到udev目錄中
[root@rac1 ~]]# cd /etc/udev/rules.d/ [root@rac1 ~]# vim 99-oracle.rules
將輸出的內容全部複製到99-oracle.rules中,複製時一定要確認複製完全與命令輸出一致。此檔案一般是不存在的,手動建立即可。
執行命令:
[root@rac1 ~]# start_udev 正在啟動 udev: [確定]
執行命令成功後檢視:
[root@rac1 ~]# ll /dev/asm* brw-rw---- 1 grid asmadmin 8, 16 1月 5 10:47 /dev/asm-diskb brw-rw---- 1 grid asmadmin 8, 32 1月 5 10:47 /dev/asm-diskc brw-rw---- 1 grid asmadmin 8, 48 1月 5 10:47 /dev/asm-diskd brw-rw---- 1 grid asmadmin 8, 64 1月 5 10:47 /dev/asm-diske brw-rw---- 1 grid asmadmin 8, 80 1月 5 10:47 /dev/asm-diskf brw-rw---- 1 grid asmadmin 8, 96 1月 5 10:47 /dev/asm-diskg brw-rw---- 1 grid asmadmin 8, 112 1月 5 10:47 /dev/asm-diskh brw-rw---- 1 grid asmadmin 8, 128 1月 5 10:47 /dev/asm-diski brw-rw---- 1 grid asmadmin 8, 144 1月 5 10:47 /dev/asm-diskj
PS:
叢集之所以在共享磁碟掛在後無法識別,主要是掛在的磁碟的屬主和屬組是root,grid使用者無許可權訪問,因此要想讓grid和oracle識別這些掛載的磁碟必須將磁碟修改許可權,但是共享磁碟的掛載方式會在主機重啟後重新去對映,因此,如果手動去直接修改共享磁碟的許可權,在主機重啟後許可權又會變成root管理員許可權,udev的方式是直接將磁碟重新修改許可權後對映的方式寫到規則中(rules)。
另一種處理方式可以透過將修改許可權的命令寫到主機重啟後訪問的最後一個檔案中去,讓系統自動每次如果主機系統重啟都會執行。已實現共享磁碟的訪問。也就是裸裝置使用raw方式處理共享磁碟。
使用的是Linux的 raw 命令
例如:
[root@rac1 ~]cat /etc/rc.loca # Oracle Cluster OCRDG ##### chown grid:asmadmin /dev/mapper/mpathb chown grid:asmadmin /dev/mapper/mpathc chown grid:asmadmin /dev/mapper/mpathd chown grid:asmadmin /dev/mapper/mpathe chown grid:asmadmin /dev/mapper/mpathf chmod 660 /dev/mapper/mpathb chmod 660 /dev/mapper/mpathc chmod 660 /dev/mapper/mpathd chmod 660 /dev/mapper/mpathe chmod 660 /dev/mapper/mpathf raw /dev/raw/raw1 /dev/mapper/mpathb raw /dev/raw/raw2 /dev/mapper/mpathc raw /dev/raw/raw3 /dev/mapper/mpathd raw /dev/raw/raw4 /dev/mapper/mpathe raw /dev/raw/raw5 /dev/mapper/mpathf sleep 2 chown grid:asmadmin /dev/raw/raw1 chown grid:asmadmin /dev/raw/raw2 chown grid:asmadmin /dev/raw/raw3 chown grid:asmadmin /dev/raw/raw4 chown grid:asmadmin /dev/raw/raw5 chmod 660 /dev/raw/raw1 chmod 660 /dev/raw/raw2 chmod 660 /dev/raw/raw3 chmod 660 /dev/raw/raw4 chmod 660 /dev/raw/raw5
這是以前使用的老的方式處理共享磁碟,不過只能在11g以以前舊的版本中,12c版本只支援udev的方式處理共享磁碟。不在支援裸裝置raw方式處理。
(5)在上述操作節點1上執行完畢後,將建立的99-oracle.rules 傳給節點2,然後節點2執行 start_udev ,開啟後查詢ll /dev/asm* 得到和節點1同樣的結果
六、建立目錄結構(所有節點)
1.在節點1和節點2上分別執行:
[root@rac1 ~]mkdir -p /oracle/app/grid/11.2.0.4 [root@rac1 ~]mkdir -p /oracle/grid [root@rac1 ~]chown -R grid:oinstall /oracle [root@rac1 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1 [root@rac1 ~]chown -R oracle:oinstall /oracle/app/oracle [root@rac1 ~]chmod -R 775 /oracle [root@rac2 ~]mkdir -p /oracle/app/grid/11.2.0.4 [root@rac2 ~]mkdir -p /oracle/grid [root@rac2 ~]chown -R grid:oinstall /oracle [root@rac2 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1 [root@rac2 ~]chown -R oracle:oinstall /oracle/app/oracle [root@rac2 ~]chmod -R 775 /oracle
2.配置環境變數
Grid 使用者
修改grid 使用者的.bash_profile. 注意每個節點的不同內容:
節點1:
[root@rac1 ~]# su - grid [grid@rac1 ~]$ vim .bash_profile export ORACLE_SID=+ASM1 export ORACLE_BASE=/oracle/grid export ORACLE_HOME=/oracle/app/grid/11.2.0.4 export PATH=$ORACLE_HOME/bin:$PATH
節點2:
[root@rac2 ~]# su - grid [grid@rac2 ~]$ vim .bash_profile export ORACLE_SID=+ASM2 export ORACLE_BASE=/oracle/grid export ORACLE_HOME=/oracle/app/grid/11.2.0.4 export PATH=$ORACLE_HOME/bin:$PATH
(PATH的配置資訊要在grid使用者下在命令列上輸入 echo $PATH 得到的輸出結果)
Oracle 使用者
節點1:
[root@rac1 ~]# su - oracle [grid@rac1 ~]$ vim .bash_profile export ORACLE_SID=student1 export ORACLE_BASE=/oracle/app/oracle export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1 export PATH=$ORACLE_HOME/bin:$PATH
節點2:
[root@rac2 ~]# su - oracle [grid@rac2 ~]$ vim .bash_profile export ORACLE_SID=student2 export ORACLE_BASE=/oracle/app/oracle export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1 export PATH=$ORACLE_HOME/bin:$PATH
七、為安裝使用者設定資源限制,兩個節點都做
要改善 Linux 系統上的軟體效能,必須對 Oracle軟體所有者使用者(grid、oracle)增加以下資源限制:
Shell 限制 limits.conf 中的條目 硬限制
開啟檔案描述符的最大數 nofile 65536
可用於單個使用者的最大程式數 nproc 16384
程式堆疊段的最大大小 stack 10240
以 root 使用者身份,在每個 Oracle RAC 節點上,在 /etc/security/limits.conf 檔案中新增
如下內容,或者執行執行如下命令:(整個複製到命令列)
cat >> /etc/security/limits.conf <<EOF grid soft nproc 2047 grid hard nproc 16384 grid soft nofile 1024 grid hard nofile 65536 oracle soft nproc 2047 oracle hard nproc 16384 oracle soft nofile 1024 oracle hard nofile 65536 EOF
八、 修改/etc/pam.d/login
在每個 Oracle RAC 節點上,在 /etc/pam.d/login 檔案中新增或編輯下面一行內容:(整個複製到命令列)
cat >> /etc/pam.d/login <<EOF session required pam_limits.so EOF
shell 的限制
對預設的 shell 啟動檔案進行以下更改,以便更改所有 Oracle安裝所有者的 ulimit設定:
九、
在每個 Oracle RAC 節點上,對於 Bourne、Bash 或 Korn shell,透過執行以下命令將以下行新增到 /etc/profile檔案:(整個複製到命令列)
cat >> /etc/profile <<EOF if [ /$USER = "oracle" ] || [ /$USER = "grid" ]; then if [ /$SHELL = "/bin/ksh" ]; then ulimit -p 16384 ulimit -n 65536 else ulimit -u 16384 -n 65536 fi umask 022 fi EOF
十、在每個 Oracle RAC 節點上,寫關於核心引數的配置檔案:
vim /etc/sysctl.conf kernel.shmmax = 4294967295 kernel.shmall = 2097152 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 fs.file-max = 6815744 net.ipv4.ip_local_port_range = 9000 65500 net.core.rmem_default=262144 net.core.rmem_max=4194304 net.core.wmem_default=262144 net.core.wmem_max=1048576 fs.aio-max-nr=1048576
以上操作完成後在每個 Oracle RAC 節點上執行:
sysctl -p
在每個 Oracle RAC 節點上,安裝相關的依賴包:
yum -y install autoconf automake binutils-devel bison cpp dos2unix ftp gcc gcc-c++ lrzsz python-deve compat-db compat-db42 compat-db43 compat-gcc-34 compat-gcc-34-c++ compat-libstdc++-33 glibc-* glibc-*.i686 libXpm-*.i686 libXp.so.6 libXt.so.6 libXtst.so.6 libgcc_s.so.1 ksh libXp libaio-devel numactl numactl-devel unixODBC unixODBC-devel compat-libcap* elfutils-libelf*
PS: 如果使用到了oracleasm相關的包需要從官方網站下載並進行安裝:
rpm -ivh oracleasmlib-2.0.4-1.el6.x86_64.rpm rpm -ivh oracleasm-support-2.1.8-1.el6.x86_64.rpm
yum源的配置使用的是本地yum源,配置方法可參考: Linux配置本地yum源
在安裝之前執行grid安裝檢測,使用的是grid安裝包解壓包中runcluvfy.sh,命令為:
[grid@rac1 ~]$ ./runcluvfh.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose
從輸出的文字中檢測那些檢查項沒有透過,做針對性處理。
PS:
一般檢測都是透過的,只有在使用者等同性檢測中會出現使用者等同性失敗導致不透過,可以透過手動配置節點間的SSH免密訪問來解決。處理檢測不透過的項後再次檢測沒有問題後就可以正式進入grid與Oracle軟體的安裝階段了
以上Oracle RAC叢集安裝前的準備工作,屬於個人操作方式。希望有不同方式或者更最佳化的方式安裝的同學可以共同學習交流,共同提高知識技能。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/30484956/viewspace-2675713/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Oracle 11G RAC叢集安裝(3)——安裝OracleOracle
- Oracle 12cR1 RAC叢集安裝(一)--環境準備Oracle
- Oracle 11G RAC叢集安裝(2)——安裝gridOracle
- oracle 11g RAC 安裝前準備指令碼Oracle指令碼
- oracle 11G RAC 安裝前準備和注意事項Oracle
- RAC安裝之一 安裝前準備
- Linux 安裝11g RAC 前準備工作Linux
- RHEL5 Oracle 11G R2 RAC 靜默安裝 (一) GI安裝前 準備Oracle
- Openfiler+RAC的安裝之六--安裝前的準備工作
- 大資料叢集搭建 – 1. CDH叢集安裝 – 環境準備大資料
- 使用VMware ESXi Server 5.0在OEL6.1上安裝 Oracle RAC 11gR1(5)-安裝前系統準備ServerOracle
- 安裝Oracle RAC 11gOracle
- mysql01_安裝前準備MySql
- 【redis叢集安裝】Redis
- zookeeper 叢集安裝
- kafka叢集安裝Kafka
- hbase叢集安裝
- StarRocks 叢集安裝
- cdh 叢集安裝
- Oracle 11g R2+ RAC+ ASM+ OracleLinux6.4安裝詳解(1)前期準備OracleASMLinux
- oracle雙機叢集安裝小結Oracle
- elasticsearch叢集安裝+安全驗證+kibana安裝Elasticsearch
- mysql cluster 7.38 叢集安裝 rpm安裝方式MySql
- k8s叢集安裝-kubeadm安裝K8S
- Oracle安裝——環境準備Oracle
- Windows 2000安裝前的準備(轉)Windows
- Oracle RAC叢集解除安裝步驟Oracle
- 3 安裝配置oracle叢集和RACOracle
- ElasticSearch 6.6.0叢集安裝Elasticsearch
- TiDB叢集安裝TiDB
- Elasticsearch 叢集安裝部署Elasticsearch
- 【Zookeeper】zookeeper叢集安裝
- 記HBase叢集安裝
- Hadoop叢集安裝Hadoop
- zookeeper 叢集安裝(單點與分散式成功安裝)分散式
- BIEE安裝前準備及注意事項
- Oracle 11g R2 RAC安裝前的系統環境搭建Oracle
- Windows下Weblogic 11G叢集安裝與配置WindowsWeb