分享學習大資料的方法

金羅老師發表於2019-01-09

分享學習大資料的方法,學習大資料的頭一步:打好基礎,比高逼格的大資料技術更重要!而基礎知識就是:程式語言和linux作業系統。


分享學習大資料的方法

我們以java程式設計為例,當然了你所擅長的程式語言也可以是python、Scala等!

Java: 只需要學習Java的標準版JavaSE就可以了,像Servlet、JSP、Tomcat、Struts、Spring、Hibernate,Mybatis都是JavaEE方向的技術在大資料技術裡用到的並不多,只需要瞭解就可以了,當然Java怎麼連線資料庫還是要知道的,像JDBC一定要掌握一下,有同學說Hibernate或Mybites也能連線資料庫啊,為什麼不學習一下,我這裡不是說學這些不好,而是說學這些可能會用你很多時間,工作中也不常用,我還沒看到誰做大資料處理用到這兩個東西的,當然你的精力很充足的話,可以學學Hibernate或Mybites的原理,不要只學API,這樣可以增加你對Java運算元據庫的理解,因為這兩個技術的核心就是Java的反射加上JDBC的各種使用。


在這裡還是要推薦下我自己建的大資料學習交流群:199427210,群裡都是學大資料開發的,如果你正在學習大資料 ,小編歡迎你加入,大家都是軟體開發黨,不定期分享乾貨(只有大資料軟體開發相關的),包括我自己整理的一份最新的大資料進階資料和高階開發教程,歡迎進階中和進想深入大資料的小夥伴加入。

Linux: 因為大資料相關軟體都是在Linux上執行的,所以Linux要學習的紮實一些,學好Linux對你快速掌握大資料相關技術會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大資料軟體的執行環境和網路環境配置,能少踩很多坑,學會shell就能看懂指令碼這樣能更容易理解和配置大資料叢集。還能讓你對以後新出的大資料技術學習起來更快。

接下來就是大資料技術的兩大生態系統:Hadoop生態系統和spark生態系統。

Hadoop: 這是現在流行的大資料處理平臺幾乎已經成為大資料的代名詞,所以這個是必學的。Hadoop裡面包括幾個元件HDFS、MapReduce和YARN,HDFS是儲存資料的地方就像我們電腦的硬碟一樣檔案都儲存在這個上面,MapReduce是對資料進行處理計算的,它有個特點就是不管多大的資料只要給它時間它就能把資料跑完,但是時間可能不是很快所以它叫資料的批處理。YARN是體現Hadoop平臺概念的重要元件有了它大資料生態體系的其它軟體就能在hadoop上執行了,這樣就能更好的利用HDFS大儲存的優勢和節省更多的資源比如我們就不用再單獨建一個spark的叢集了,讓它直接跑在現有的hadoop yarn上面就可以了。

Spark: 它是用來彌補基於MapReduce處理資料速度上的缺點,它的特點是把資料裝載到記憶體中計算而不是去讀慢的要死進化還特別慢的硬碟。特別適合做迭代運算,所以演算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因為它們都是用JVM的。

以上很多都是必須的理論技術知識,想要成功就業,光紙上談兵不行,還需要一定的實戰經驗才行,尋找一些大資料相關的專案進行練練手,鞏固一下自己的技術。

以上就是對如何學習大資料的簡單總結,如果學完之後仍有餘力,自然也是可以學習機器學習、人工智慧等技術知識嗎,對你以後的就業會有很大的優勢!


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561003/viewspace-2375309/,如需轉載,請註明出處,否則將追究法律責任。

相關文章