Spark基礎:使用維基百科資料集來用Spark進行原型實驗
Apache Spark的真正價值和強大能力在於用它可以構建一個統一一致的分析場景,囊括了從ETL(資料抽取、轉換和載入)、批處理分析、實時流分析、機器學習、圖類型資料分析,到可視化的多種功能。在這個歷時2天的課程裡,布萊恩·克萊坡通過對多種維基百科資料集的動手操作來展示了理想中Spark可以完成的多樣化的編程模式。在培訓結束時,參加者將具備運用Spark來進行概念驗證和原型搭建的能力。
本課程包括50%的講座和50%的動手編程實踐。所有的參與者在課程結束後還可以獲得Databricks內容一個月的接入,方便參與者繼續進行課堂實踐和完成作業。
閱讀原文 ( read more ) 瀏覽更多培訓資訊
相關文章
- 【大資料】Spark RDD基礎大資料Spark
- spark實戰之:分析維基百科網站統計資料(java版)Spark網站Java
- Spark基礎Spark
- scala基礎語法-----Spark基礎Spark
- 基於 Spark 的資料分析實踐Spark
- 大資料基礎學習-9.Spark2.1.1大資料Spark
- 基於Spark對消費者行為資料進行資料分析開發案例Spark
- 用Spark進行實時流計算Spark
- Spark學習(二)——RDD基礎Spark
- 如何建立維基百科?維基百科建立費用多少?
- spark streaming執行kafka資料來源SparkKafka
- 尋找海量資料集用於大資料開發實戰(維基百科網站統計資料)大資料網站
- spark 基礎開發 Tips總結Spark
- scala_準備_spark_基礎Spark
- 基於 ZooKeeper 搭建 Spark 高可用叢集Spark
- spark學習筆記--叢集執行SparkSpark筆記
- Databricks 第9篇:Spark SQL 基礎(資料型別、NULL語義)SparkSQL資料型別Null
- 大資料Spark叢集模式配置大資料Spark模式
- Spark 3.2使用體驗Spark
- 基於Hive進行數倉建設的資源後設資料資訊統計:Spark篇HiveSpark
- hadoop基礎學習三十一(spark-streaming)HadoopSpark
- Spark Core基礎面試題總結(上)Spark面試題
- 好程式設計師大資料培訓分享Spark需要什麼基礎?程式設計師大資料Spark
- Spark如何進行動態資源分配Spark
- Spark基礎學習精髓——第一篇Spark
- Spark SQL外部資料來源與實現機制SparkSQL
- 資料分析-基礎維度
- Spark學習進度-Spark環境搭建&Spark shellSpark
- Spark叢集和任務執行Spark
- 如何基於Jupyter notebook搭建Spark叢集開發環境Spark開發環境
- 基礎實驗
- Spark綜合使用及使用者行為案例訪問session統計分析實戰-Spark商業應用實戰SparkSession
- Spark 問題集Spark
- PySpark和SparkSQL基礎:如何利用Python程式設計執行Spark(附程式碼)SparkSQLPython程式設計
- JavaScript夯實基礎系列(四):原型JavaScript原型
- 【Spark篇】---Spark解決資料傾斜問題Spark
- 一文帶你過完Spark RDD的基礎概念Spark
- 資料庫基礎使用資料庫
- 工作日誌——基於k8s搭建spark叢集K8SSpark