第2章 用Scala和Spark進行資料分析
2.1 資料科學家的Scala
2.2 Spark 程式設計模型
2.3 記錄關聯問題
2.4 小試牛刀:Spark shell和SparkContext
2.5 把資料從叢集上獲取到客戶端
2.6 把程式碼從客戶端傳送到叢集
2.7 用元組和case class對資料進行結構化
2.8 聚合
2.9 建立直方圖
2.10 連續變數的概要統計
2.11 為計算概要資訊建立可重用的程式碼
2.12 變數的選擇和評分簡介
2.13 小結
相關文章
- 用Spark和DBSCAN對地理定位資料進行聚類Spark聚類
- 使用Spark和Cassandra進行資料處理(一)Spark
- 基於Spark對消費者行為資料進行資料分析開發案例Spark
- 《利用Python進行資料分析·第2版》 轉Python
- 教你用SQL進行資料分析SQL
- 用 Python 進行資料分析 pandas (一)Python
- 【資料分析】針對家庭用電資料進行時序分析(1)
- Spark基礎:使用維基百科資料集來用Spark進行原型實驗Spark原型
- 從0到1進行Spark history分析Spark
- 怎麼進行資料分析
- 使用pandas進行資料分析
- [譯] 在 Python 中,如何運用 Dask 資料進行並行資料分析Python並行
- Databricks 第6篇:Spark SQL 維護資料庫和表SparkSQL資料庫
- 在IntelliJ IDEA中建立和執行java/scala/spark程式IntelliJIdeaJavaSpark
- Spark資料收藏--------Spark執行架構Spark架構
- 用Spark進行實時流計算Spark
- Spark資料分析概念入門Spark
- 使用Apache Spark和Apache Hudi構建分析資料湖ApacheSpark
- IDEA開發Spark應用實戰(Scala)IdeaSpark
- 使用 Spark 進行微服務的實時效能分析Spark微服務
- 用python進行資料分析的五個最常用庫Python
- 好程式設計師大資料培訓分享spark之Scala程式設計師大資料Spark
- 如何用Python進行資料分析?Python
- 如何對資料目標進行分析
- 如何更好的進行大資料分析大資料
- 使用Apache Flink和Apache Ignit進行資料流分析Apache
- 如何對大資料進行分析和處理?_光點科技大資料
- 使用 Dynatrace 對 Node.js 應用的效能資料進行分析Node.js
- 利用Tushare資料介面+pandas進行股票資料分析
- 第10章 基因資料分析和BDG專案
- spark 三種建立 資料集的方法,及測試(Scala程式碼)Spark
- kafka:spark-project專案的kafka和scala配置KafkaSparkProject
- Spark SQL scala和java版本的UDF函式使用SparkSQLJava函式
- Spark基礎-Scala提取器Spark
- Spark連線MongoDB之ScalaSparkMongoDB
- 【大資料 Spark】利用電影觀看記錄資料,進行電影推薦大資料Spark
- 薦書 | 《利用Python進行資料分析》Python
- logminer進行資料探勘分析測試