Hadoop環境中管理大資料儲存八大技巧

大資料學習發表於2019-06-15

隨著IT網際網路資訊科技的飛速發展和進步。目前大資料行業也越來越火爆,從而導致國內大資料人才也極度缺乏,下面介紹一下關於Hadoop環境中管理大資料儲存技巧。

在現如今,隨著IT網際網路資訊科技的飛速發展和進步。目前大資料行業也越來越火爆,從而導致國內大資料人才也極度缺乏,下面介紹一下關於Hadoop環境中管理大資料儲存技巧。

Hadoop環境中管理大資料儲存八大技巧

1、分散式儲存

傳統化集中式儲存存在已有一段時間。但大資料並非真的適合集中式儲存架構。Hadoop設計用於將計算更接近資料節點,同時採用了HDFS檔案系統的大規模橫向擴充套件功能。

雖然,通常解決Hadoop管理自身資料低效性的方案是將Hadoop資料儲存在SAN上。但這也造成了它自身效能與規模的瓶頸。現在,如果你把所有的資料都透過集中式SAN處理器進行處理,與Hadoop的分散式和並行化特性相悖。你要麼針對不同的資料節點管理多個SAN,要麼將所有的資料節點都集中到一個SAN。

但Hadoop是一個分散式應用,就應該執行在分散式儲存上,這樣儲存就保留了與Hadoop本身同樣的靈活性,不過它也要求擁抱一個軟體定義儲存方案,並在商用伺服器上執行,這相比瓶頸化的Hadoop自然更為高效。

在這裡還是要推薦下我自己建的大資料學習交流群:529867072,群裡都是學大資料開發的,如果你正在學習大資料 ,小編歡迎你加入,大家都是軟體開發黨,不定期分享乾貨(只有大資料軟體開發相關的),包括我自己整理的一份最新的大資料進階資料和高階開發教程,歡迎進階中和進想深入大資料的小夥伴加入。

 2、超融合VS分散式

注意,不要混淆超融合與分散式。某些超融合方案是分散式儲存,但通常這個術語意味著你的應用和儲存都儲存在同一計算節點上。這是在試圖解決資料本地化的問題,但它會造成太多資源爭用。這個Hadoop應用和儲存平臺會爭用相同的記憶體和CPU。Hadoop執行在專有應用層,分散式儲存執行在專有儲存層這樣會更好。之後,利用快取和分層來解決資料本地化並補償網路效能損失。

3、避免控制器瓶頸(ControllerChokePoint)

實現目標的一個重要方面就是——避免透過單個點例如一個傳統控制器來處理資料。反之,要確儲存儲平臺並行化,效能可以得到顯著提升。

此外,這個方案提供了增量擴充套件性。為資料湖新增功能跟往裡面扔x86伺服器一樣簡單。一個分散式儲存平臺如有需要將自動新增功能並重新調整資料。

4、刪重和壓縮

掌握大資料的關鍵是刪重和壓縮技術。通常大資料集內會有70%到90%的資料簡化。以PB容量計,能節約數萬美元的磁碟成本。現代平臺提供內聯(對比後期處理)刪重和壓縮,大大降低了儲存資料所需能力。

 5、合併Hadoop發行版

很多大型企業擁有多個Hadoop發行版本。可能是開發者需要或是企業部門已經適應了不同版本。無論如何最終往往要對這些叢集的維護與運營。一旦海量資料真正開始影響一家企業時,多個Hadoop發行版儲存就會導致低效性。我們可以透過建立一個單一,可刪重和壓縮的資料湖獲取資料效率

 6、虛擬化Hadoop

虛擬化已經席捲企業級市場。很多地區超過80%的物理伺服器現在是虛擬化的。但也仍有很多企業因為效能和資料本地化問題對虛擬化Hadoop避而不談。

7、建立彈性資料湖

建立資料湖並不容易,但大資料儲存可能會有需求。我們有很多種方法來做這件事,但哪一種是正確的?這個正確的架構應該是一個動態,彈性的資料湖,可以以多種格式(架構化,非結構化,半結構化)儲存所有資源的資料。更重要的是,它必須支援應用不在遠端資源上而是在本地資料資源上執行。

不幸的是,傳統架構和應用(也就是非分散式)並不盡如人意。隨著資料集越來越大,將應用遷移到資料不可避免,而因為延遲太長也無法倒置。

理想的資料湖基礎架構會實現資料單一副本的儲存,而且有應用在單一資料資源上執行,無需遷移資料或製作副本。

8、整合分析

分析並不是一個新功能,它已經在傳統RDBMS環境中存在多年。不同的是基於開源應用的出現,以及資料庫表單和社交媒體,非結構化資料資源(比如,維基百科)的整合能力。關鍵在於將多個資料型別和格式整合成一個標準的能力,有利於更輕鬆和一致地實現視覺化與報告製作。合適的工具也對分析/商業智慧專案的成功至關重要。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69917001/viewspace-2647734/,如需轉載,請註明出處,否則將追究法律責任。

相關文章