好程式設計師大資料培訓分享Spark需要什麼基礎?

好程式設計師發表於2020-10-15

   好程式設計師大資料培訓分享 Spark 需要什麼基礎? 作為大資料主流框架之一的Spark ,也是大資料開發人員必須要掌握的重要技術框架,在企業招聘當中,掌握 Spark 框架的大資料人才,也更加具備競爭優勢。那麼 Spark 需要什麼基礎?今天就來給大家講講 Spark 需要什麼基礎?

   首先,學習大資料,不管是Hadoop 還是 Spark ,基本功都少不了 Linux Java 。搭建叢集環境, Linux 基礎是必須的,系統操作命令是基礎中的基礎。而 Java ,主要以 JavaSE 的知識為重點,包括物件導向、集合、 io 、多執行緒以及 JDBC 操作等,這部分是大資料開發當中常常需要用到的。

   其次,是要建立起大資料技術背景,對於大資料處理各個環節,以及對應的解決方案,系統框架要有基本的認識:

   1 、資料採集: Flume Kafka Logstash Filebeat...

   2 、資料儲存: Mysql Redis Hbase HDFS...

   3 、資料查詢: Hive Elasticsearch...

   4 、實時資料計算: Storm Spark-streaming Flink...

   5 、離線資料計算: Hadoop Spark...

   6 、其他框架: Zookeeper...

   有了這樣的背景基礎之後,開始Spark 學習也能夠更快地理解很多東西,特點建議在 Spark 學習之間要先對 Hadoop 框架有比較全面的認識,包括核心的 HDFS MapReduce Yarn 等,這部分和 Spark 聯絡緊密,對於像 Spark 為什麼計算效能優異,架構設計為什麼會這樣設計等等這樣的問題,也能更快理解和消化。

   對於Spark 框架的學習, Spark 生態圈各元件需要著重掌握,包括 Spark-core Spark-streaming Spark-mlib Spark-graphx ,剛開始學習的時候主要學習 Spark-core Spark-streaming Spark-mlib Spark-graphx 可以等後期工作需要或者有時間了在研究即可。

   Spark 需要什麼基礎?相信看完上面的介紹,大家也都有了基本的瞭解了。 Spark 作為大資料計算第二代引擎的代表,在越來越多的平臺當中得以應用,可以這樣說,想進入大資料行業, Spark 是必須要掌握的。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69913864/viewspace-2727170/,如需轉載,請註明出處,否則將追究法律責任。

相關文章