大資料領域三個大的技術方向

大資料學習發表於2019-05-13

大資料領域三個大的技術方向:

1、Hadoop大資料開發方向

2、資料探勘、資料分析&機器學習方向

3、大資料運維&雲端計算方向

大資料學習什麼

大資料領域三個大的技術方向

在這裡還是要推薦下我自己建的大資料學習交流群:529867072,群裡都是學大資料開發的,如果你正在學大資料 ,小編歡迎你加入,大家都是軟體開發黨,不定期分享乾貨(只有大資料軟體開發相關的),包括我自己整理的一份最新的大資料進階資料和高階開發教程,歡迎進階中和進想深入大資料的小夥伴加入。

Python:Python 的排名從去年開始就藉助人工智慧持續上升,現在它已經成為了語言排行第一名。

語法簡捷而清晰,對底層做了很好的封裝,是一種很容易上手的高階語言。

大資料和資料科學領域,任何叢集架構軟體都支援Python,Python也有很豐富的資料科學庫,所以Python不得不學。

Linux:更好的理解hadoop、hive、hbase、spark等大資料軟體的執行環境和網路環境配置,學會shell就能看懂指令碼這樣能更容易理解和配置大資料叢集。

Hadoop:Hadoop裡面包括幾個元件HDFS、MapReduce和YARN,HDFS是儲存資料的地方就像我們電腦的硬碟一樣檔案都儲存在這個上面,MapReduce是對資料進行處理計算的,YARN是體現Hadoop平臺概念的重要元件有了它大資料生態體系的其它軟體就能在hadoop上執行了,這樣就能更好的利用HDFS大儲存的優勢和節省更多的資源比如我們就不用再單獨建一個spark的叢集了,讓它直接跑在現有的hadoop yarn上面就可以了。

Zookeeper:ZooKeeper是一種為分散式應用所設計的高可用、高效能且一致的開源協調服務,它提供了一項基本服務:分散式鎖服務。由於ZooKeeper的開源特性,後來我們的開發者在分散式鎖的基礎上,摸索了出了其他的使用方法:配置維護、組服務、分散式訊息佇列、分散式通知/協調等。

Sqoop:這個是用於把Mysql裡的資料匯入到Hadoop裡的。當然你也可以不用這個,直接把Mysql資料表匯出成檔案再放到HDFS上也是一樣的,當然生產環境中使用要注意Mysql的壓力。

Hive:對於會SQL語法的來說就是神器,它能讓你處理大資料變的很簡單,不會再費勁的編寫MapReduce程式。

Hbase:這是Hadoop生態體系中的NOSQL資料庫,他的資料是按照key和value的形式儲存的並且key是唯一的,所以它能用來做資料的排重,它與MYSQL相比能儲存的資料量大很多。所以他常被用於大資料處理完成之後的儲存目的地。

Kafka:Kafka的整體架構非常簡單,是顯式分散式架構,producer、broker(kafka)和consumer都可以有多個。Producer,consumer實現Kafka註冊的介面,資料從producer傳送到broker,broker承擔一箇中間快取和分發的作用。broker分發註冊到系統中的consumer。broker的作用類似於快取,即活躍的資料和離線處理系統之間的快取。客戶端和伺服器端的通訊,是基於簡單,高效能,且與程式語言無關的TCP協議。幾個基本概念。

Spark:它是用來彌補基於MapReduce處理資料速度上的缺點,它的特點是把資料裝載到記憶體中計算而不是去讀慢的要死進化還特別慢的硬碟。特別適合做迭代運算,所以演算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因為它們都是用JVM的。

機器學習(Machine Learning, ML):是一門多領域交叉學科,涉及機率論、統計學、逼近論、凸分析、演算法複雜度理論等多門學科。它是人工智慧的核心,是使計算機具有智慧的根本途徑,其應用遍及人工智慧的各個領域,它主要使用歸納、綜合而不是演繹。機器學習的演算法基本比較固定了,學習起來相對容易。

深度學習(Deep Learning, DL):深度學習的概念源於人工神經網路的研究,最近幾年發展迅猛。深度學習應用的例項有AlphaGo、人臉識別、影像檢測等。是國內外稀缺人才,但是深度學習相對比較難,演算法更新也比較快,需要跟隨有經驗的老師學習。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69917001/viewspace-2644111/,如需轉載,請註明出處,否則將追究法律責任。

相關文章