[ 流雲]配置基於ASM儲存的STANDBY時日誌檔案的處理
在配置基於ASM儲存的STANDBY時,由於控制檔案裡面記錄的聯機日誌還是原來主庫日誌檔案的資訊,因此需要對其做進一步處理。就算是設定了log_file_name_convert這個引數,假如主庫的聯機日誌有兩組成員,那麼只會有一組成員轉換為log_file_name_convert設定的對應ASM目錄,另外一個成員還會是原來的目錄,另外STANDBY LOGFILE的聯機日誌目錄也不會更改。比如日誌檔案配置如下,我們看一下整個操作過程:
Thread Group Member Archived Status (MB)
—— —– ———————————- ———- —————- ——-
1 1 /oradata/datafile/redo1_01.log YES CLEARING 1000
1 1 +DATA/db/onlinelog/redo1_02.log YES CLEARING 1000
1 2 /oradata/datafile/redo1_01.log YES CLEARING_CURRENT 1000
1 2 +DATA/db/onlinelog/redo2_02.log YES CLEARING_CURRENT 1000
1 3 /oradata/datafile/redo3_01.log YES CLEARING 1000
1 3 +DATA/db/onlinelog/redo3_02.log YES CLEARING 1000Group Member Archived Status (MB)
—– ——————————– ———- —————- ——-
11 /oradata/datafile/redo1_01.log NO UNASSIGNED 1000
12 /oradata/datafile/redo1_01.log YES ACTIVE 1000
13 /oradata/datafile/redo1_01.log NO UNASSIGNED 1000
14 /oradata/datafile/redo1_01.log YES UNASSIGNED 1000
首先處理STANDBY LOGFILE,可以把所有的STANDBY LOGFILE GROUP都刪除掉重建就行了:
alter database drop standby logfile group 11;
alter database drop standby logfile group 12;
alter database drop standby logfile group 13;
alter database drop standby logfile group 14;
alter database add standby logfile group 11 (’+data’) size 1000M;
alter database add standby logfile group 12 (’+data’) size 1000M;
alter database add standby logfile group 13 (’+data’) size 1000M;
alter database add standby logfile group 14 (’+data’) size 1000M;
對於聯機日誌,則需要先把各組日誌裡面不轉換為ASM目錄的那組成員先刪除掉,但是STATUS為CLEARING_CURRENT那組日誌成員是無法刪除的,可以後續再處理:
alter database drop logfile member ‘/oradata/datafile/redo1_01.log’;
alter database drop logfile member ‘/oradata/datafile/redo3_01.log’;
然後再將對應的日誌組CLEAR掉再DROP,由於資料庫至少需要兩組聯機日誌,因此只能刪除一組聯機日誌並重建好後才能再處理另一組:
alter database clear logfile group 1;
alter database drop logfile group 1;
alter database add logfile group 1 (’+data’,'+data’) size 1000M;
alter database clear logfile group 3;
alter database drop logfile group 3;
alter database add logfile group 3 (’+data’,'+data’) size 1000M;
等日誌組2的狀態從CLEARING_CURRENT變成其他狀態後,再進一步處理就可以了:
<!--alter database drop logfile member ‘/oradata/datafile/redo2_01.log’;
alter database clear logfile group 2;
alter database drop logfile group 2;
alter database add logfile group 2 (’+data’,'+data’) size 1000M;
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/1384/viewspace-611334/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 基於flink和drools的實時日誌處理
- 實時流處理與分散式儲存過程中對檔案的操作分散式儲存過程
- secureCRT螢幕日誌儲存到指定檔案的配置方法Securecrt
- Linux伺服器常見的日誌檔案儲存位置!Linux伺服器
- mysqlbinlog 處理二進位制日誌檔案的工具MySql
- 基於go開發日誌處理包Go
- mysql 資料儲存檔案及6類日誌MySql
- Golang 快速讀取處理大日誌檔案工具Golang
- java專案日誌配置檔案Java
- MySQL InnoDB日誌檔案配置MySql
- 使用資料流的思想處理檔案
- 基於Docker應用容器日誌檔案收集Docker
- juicefs:一個基於Redis和雲物件儲存的分散式POSIX檔案系統UIRedis物件分散式
- orbeon form 的日誌處理ORBORM
- GitLab 之 Git LFS 大檔案儲存的配置Gitlab
- 基於第三方CocoaLumberjack(DDLog)做儲存不同分類的日誌
- 【Python基礎】Python處理Excel檔案,進行篩選資料、排序等操作及儲存新的Excel檔案PythonExcel排序
- Logback詳細整理,基於springboot的日誌配置Spring Boot
- PG wal 日誌的物理儲存分析
- nginx日誌配置檔案說明Nginx
- 匯出處理耗時的檔案
- golang 讀取切分儲存byte流檔案Golang
- python ini 配置檔案處理Python
- IDA批量處理VirusShare樣本獲得asm檔案與bytes檔案ASM
- 主庫千萬級的資料更新後,STANDBY日誌應用大量延遲的問題處理
- 981-基於時間的鍵值儲存
- 981. 基於時間的鍵值儲存
- springboot超級詳細的日誌配置(基於logback)Spring Boot
- 基於TRIZ理論的筷子儲存盒設計
- 滴滴基於Clickhouse構建新一代日誌儲存系統
- go開發屬於自己的日誌庫-檔案日誌庫實現Go
- 雲原生環境下的日誌採集、儲存、分析實踐
- 處理nginx訪問日誌,篩選時間大於1秒的請求Nginx
- IPFS的檔案儲存模式模式
- 塊儲存 檔案儲存 物件儲存物件
- 自建MySQL於阿里雲資料庫檔案儲存DBFS之上的優勢MySql阿里資料庫
- python日誌怎麼儲存Python
- node專案錯誤處理與日誌
- Flink 在又拍雲日誌批處理中的實踐