半自動化運維之伺服器資訊維護
在很多的時候,隨著工作的持續開展,可能會接手更多的伺服器資源,這個時候我們手裡就不但是一兩臺伺服器那麼簡單,可能幾十個,上百個,甚至上千個,這個時候伺服器資訊的維護就變得額外重要,拋開業務線的規劃,對於DBA來說,掌握伺服器的資訊,做到知根知底,才能在問題發生的時候合理處理問題。
伺服器資訊可以分成幾個方面來看,比如作業系統情況,核心版本,硬碟,記憶體,空間使用情況,累計執行時間,資料庫例項執行時間,系統中的swap爭用情況等等,儘可能根據實際的情況進行一些維度的劃分和細粒度的歸納。
比如說在生產中,考慮容災,會有一主一備,甚至一主多備,這個時候,我們也需要考慮主備環境中的硬體資源的情況,資源使用情況。
舉幾個例子。
比如我們手頭有兩臺伺服器,是作為異地容災的,我們透過簡單的解析得到了兩臺伺服器的初步資訊。
伺服器一:RHEL 6,空間使用近70G,120G記憶體,24CPU,伺服器已啟動590多天,資料庫例項啟動自2013年,
伺服器二:RHEL 4,空間分配達3.1T,使用率達2.5T,40G記憶體24CPU,伺服器已啟動280多天,資料庫例項啟動自2014年,swap爭用較高
這個時候我們可以看到系統版本,空間資源使用情況都差不多,系統的記憶體相對有些緊張,跑了好幾個資料庫勉強才有8G的記憶體空間,主庫伺服器上有兩個資料庫例項在跑,而備庫中有兩個備庫例項在跑,另外還有一臺其他業務的資料庫例項,這種情況下,就可能會有一些災難場景,我們可以瞭解到主庫伺服器已經執行了近800天,已經兩年多了,而備庫也有差不多1年半了。在這種情況,系統的資源使用情況比較緊俏,很可能就會出現問題。一旦出現問題,就會有問題的放大效應,比如備庫出現了介質損壞,那麼額外的那個資料庫例項就沒有辦法恢復了,因為本地的空間情況剩餘也只有50G左右,如果規劃系統的rman備份,也沒有多少空間可用,而且同時主庫已經跑了2年多了,壓力還是相似甚至開始加大的狀態下,主庫長期在這種資源緊俏的時候更容易出現問題,這個時候主庫出現問題,備庫的隱患還是沒有解除,因為這個時候系統的壓力全部都到了備庫上了。如果備庫壓力突增,更可能出現問題。
所以這個時候與時俱進做一個前瞻的準備還是不錯的,比如我們的主庫資源配置較低,但是我們配備了一個高配的備庫,這樣就相對可以輕鬆很多,如果出現問題,問題處理的餘地還很大,甚至我們還是希望主庫能夠切換到備庫上來,這樣出現問題之後切換系統的穩定性反而更強了。
所以說如果手頭擁有大量的伺服器資源,不妨還是適當規劃一些,看看是否能夠做一些合理的改變,在問題發生的時候更加從容一些,畢竟自動化運維是一個很大的方向,我們不能保證系統的資源都是完全一樣的,可能很多時候因為各種因素,會有很大的差別,這些系統資源的權衡是自動化運維所不能完全考慮到的,所以我還是希望這是屬於半自動化運維中的範疇。
伺服器資訊可以分成幾個方面來看,比如作業系統情況,核心版本,硬碟,記憶體,空間使用情況,累計執行時間,資料庫例項執行時間,系統中的swap爭用情況等等,儘可能根據實際的情況進行一些維度的劃分和細粒度的歸納。
比如說在生產中,考慮容災,會有一主一備,甚至一主多備,這個時候,我們也需要考慮主備環境中的硬體資源的情況,資源使用情況。
舉幾個例子。
比如我們手頭有兩臺伺服器,是作為異地容災的,我們透過簡單的解析得到了兩臺伺服器的初步資訊。
伺服器一:RHEL 6,空間使用近70G,120G記憶體,24CPU,伺服器已啟動590多天,資料庫例項啟動自2013年,
伺服器二:RHEL 4,空間分配達3.1T,使用率達2.5T,40G記憶體24CPU,伺服器已啟動280多天,資料庫例項啟動自2014年,swap爭用較高
我們來看看這兩臺伺服器資訊在特定的場景中會有哪些考慮,當然有些細節還沒有羅列出來。
第一個部分就是IP資訊,dataguard的場景作為異地容災尤為重要,如果主備在同一個機房,勢必會給災備帶來一些隱患,比如機房斷電,這種情況下影響就會凸顯出來
然後我們來看主備的系統版本,一個是redhat 6,一個是redhat 4,其實也可以搭成主備環境,但是多多少少會有一些影響,比如有些基於作業系統級的引數在不同的系統版本中可能有不同的表現。
我們再來看一看空間分配,第一臺是作為主庫來使用的,可以看到使用了近70G的空間,但是備庫卻又3T左右的空間,使用率卻要高得多,這個時候就需要評估是否空間資源使用是否合理,是否有一些額外的空間消耗沒有釋放。
再來看看記憶體資源,一臺伺服器是120G,一臺是40G,在這種情況下,勢必會對sga的配置會有一定影響,對於系統中的hugepage等的設定也會有所不同,配大了可能備庫不能接受,配小了又有些浪費。
還有一些資訊,比如主備庫的系統執行時間,可以看到主庫伺服器已經執行了近600天,而備庫有差不多300天的樣子,在這個時間範圍內,可能發生了一些資源的分配最後導致了系統資源,硬體資源出現了一些差別。
最後一個要點就是在備庫中存在著較高的swap現象,這個從資料庫的角度來看,還是沒有能夠合理的利用large page或者hugepage。而在主庫中就沒有明顯的swap爭用。這個時候如果發生了災難切換,切換到備庫之後,可能在備庫中就會存在一些潛在的效能問題。
再比如我們有如下的兩臺資料庫伺服器,一部分資源作為dataguard使用,另外一部分資源作為其它的輔助資源來提供,怎麼理解呢,可以簡單來說,一臺伺服器類似主庫,另外一臺伺服器做為備庫,同時根據情況還需要跑其它的業務資料庫。
比如我們得到了兩臺伺服器的資源情況如下:
RHEL 5,空間分配350G,使用近170G,8G記憶體,伺服器已啟動780多天,資料庫例項啟動自2013年,同時有xxxxx和xxxx兩個資料庫例項在跑,swap爭用較高
RHEL 5,空間分配234G,使用近170G,8G記憶體,伺服器已啟動近500天,資料庫例項啟動自2014年,同時又xxxx和xxxx,xxxx三個資料庫例項在跑,swap爭用較高
在這種情況我們怎麼來分析呢,第一個部分就是IP資訊,dataguard的場景作為異地容災尤為重要,如果主備在同一個機房,勢必會給災備帶來一些隱患,比如機房斷電,這種情況下影響就會凸顯出來
然後我們來看主備的系統版本,一個是redhat 6,一個是redhat 4,其實也可以搭成主備環境,但是多多少少會有一些影響,比如有些基於作業系統級的引數在不同的系統版本中可能有不同的表現。
我們再來看一看空間分配,第一臺是作為主庫來使用的,可以看到使用了近70G的空間,但是備庫卻又3T左右的空間,使用率卻要高得多,這個時候就需要評估是否空間資源使用是否合理,是否有一些額外的空間消耗沒有釋放。
再來看看記憶體資源,一臺伺服器是120G,一臺是40G,在這種情況下,勢必會對sga的配置會有一定影響,對於系統中的hugepage等的設定也會有所不同,配大了可能備庫不能接受,配小了又有些浪費。
還有一些資訊,比如主備庫的系統執行時間,可以看到主庫伺服器已經執行了近600天,而備庫有差不多300天的樣子,在這個時間範圍內,可能發生了一些資源的分配最後導致了系統資源,硬體資源出現了一些差別。
最後一個要點就是在備庫中存在著較高的swap現象,這個從資料庫的角度來看,還是沒有能夠合理的利用large page或者hugepage。而在主庫中就沒有明顯的swap爭用。這個時候如果發生了災難切換,切換到備庫之後,可能在備庫中就會存在一些潛在的效能問題。
再比如我們有如下的兩臺資料庫伺服器,一部分資源作為dataguard使用,另外一部分資源作為其它的輔助資源來提供,怎麼理解呢,可以簡單來說,一臺伺服器類似主庫,另外一臺伺服器做為備庫,同時根據情況還需要跑其它的業務資料庫。
比如我們得到了兩臺伺服器的資源情況如下:
RHEL 5,空間分配350G,使用近170G,8G記憶體,伺服器已啟動780多天,資料庫例項啟動自2013年,同時有xxxxx和xxxx兩個資料庫例項在跑,swap爭用較高
RHEL 5,空間分配234G,使用近170G,8G記憶體,伺服器已啟動近500天,資料庫例項啟動自2014年,同時又xxxx和xxxx,xxxx三個資料庫例項在跑,swap爭用較高
這個時候我們可以看到系統版本,空間資源使用情況都差不多,系統的記憶體相對有些緊張,跑了好幾個資料庫勉強才有8G的記憶體空間,主庫伺服器上有兩個資料庫例項在跑,而備庫中有兩個備庫例項在跑,另外還有一臺其他業務的資料庫例項,這種情況下,就可能會有一些災難場景,我們可以瞭解到主庫伺服器已經執行了近800天,已經兩年多了,而備庫也有差不多1年半了。在這種情況,系統的資源使用情況比較緊俏,很可能就會出現問題。一旦出現問題,就會有問題的放大效應,比如備庫出現了介質損壞,那麼額外的那個資料庫例項就沒有辦法恢復了,因為本地的空間情況剩餘也只有50G左右,如果規劃系統的rman備份,也沒有多少空間可用,而且同時主庫已經跑了2年多了,壓力還是相似甚至開始加大的狀態下,主庫長期在這種資源緊俏的時候更容易出現問題,這個時候主庫出現問題,備庫的隱患還是沒有解除,因為這個時候系統的壓力全部都到了備庫上了。如果備庫壓力突增,更可能出現問題。
所以這個時候與時俱進做一個前瞻的準備還是不錯的,比如我們的主庫資源配置較低,但是我們配備了一個高配的備庫,這樣就相對可以輕鬆很多,如果出現問題,問題處理的餘地還很大,甚至我們還是希望主庫能夠切換到備庫上來,這樣出現問題之後切換系統的穩定性反而更強了。
所以說如果手頭擁有大量的伺服器資源,不妨還是適當規劃一些,看看是否能夠做一些合理的改變,在問題發生的時候更加從容一些,畢竟自動化運維是一個很大的方向,我們不能保證系統的資源都是完全一樣的,可能很多時候因為各種因素,會有很大的差別,這些系統資源的權衡是自動化運維所不能完全考慮到的,所以我還是希望這是屬於半自動化運維中的範疇。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/23718752/viewspace-1760926/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- IT運維之自動化運維運維
- 運維效率之資料遷移自動化運維
- Python自動化運維之psutil系統效能資訊模組Python運維
- 自動化運維工具之Puppet常用資源(一)運維
- 自動化運維工具之Puppet常用資源(二)運維
- 運維自動化之賬單系統運維
- Python自動化運維之IPy模組Python運維
- 自動化運維工具之Puppet模組運維
- ansible自動化運維資料庫運維資料庫
- Devops-運維效率之資料遷移自動化dev運維
- Ansible自動化運維工具運維
- 簡化IT運維工作,就要學會使用自動化運維工具!運維
- 什麼是自動化運維?為什麼選擇Python做自動化運維?運維Python
- ansible自動化運維入門運維
- 自動化運維工具之Puppet基礎入門運維
- 最佳化半群結構的線段樹資訊維護
- 【運維自動化】37秒萬臺伺服器標準化與交付自動化運維伺服器
- IT運維和自動化運維以及運維開發有啥不同?能解釋下嗎?運維
- 指標是構築自動化運維與智慧化運維的基石指標運維
- 分層運維自動化監控運維
- 自動化運維工具Ansible介紹運維
- 自動化運維的快速演進運維
- 阿里雲釋出ECS自動化運維套件,幫助企業實現自動化運維轉型阿里運維套件
- Linux Shell互動式自動化運維程式Linux運維
- 透過運維編排實現自動化智慧運維與故障自愈運維
- Python+Django+Ansible Playbook自動化運維PythonDjango運維
- Oracle 自動化運維-Python連線OracleOracle運維Python
- 論IT運維自動化的重要性運維
- 自動化運維工具——ansible詳解(一)運維
- 自動化運維工具——ansible詳解(二)運維
- 自動化運維工具ansible的實踐運維
- 維護區間資訊
- 自動化運維,國產化信創替代方案運維
- ORACLE 11G 維護視窗和自動維護任務Oracle
- k8s叢集自動化維護PODK8S
- [Linux]Ansible自動化運維② - 工具與模組Linux運維
- 自動化運維利器Ansible要點彙總運維
- [Linux]Ansible自動化運維① - 入門知識Linux運維
- Telegraf+Influxdb+Grafana自動化運維監控UXGrafana運維