本地開發spark程式碼上傳spark叢集服務並執行(基於spark官網文件)
開啟IDEA 在src下的main下的scala下右擊建立一個scala類 名字為SimpleApp ,內容如下
import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ import org.apache.spark.SparkConf object SimpleApp { def main(args: Array[String]) { val logFile = "/home/spark/opt/spark-1.2.0-bin-hadoop2.4/README.md" // Should be some file on your system val conf = new SparkConf().setAppName("Simple Application") val sc = new SparkContext(conf) val logData = sc.textFile(logFile, 2).cache() val numAs = logData.filter(line => line.contains("a")).count() val numBs = logData.filter(line => line.contains("b")).count() println("Lines with a: %s, Lines with b: %s".format(numAs, numBs)) } }打包檔案:
File-->>ProjectStructure -->點選Artificats-->>點選綠色加號 --> 點選JAR-->>選擇 From module with dependices
點選Output Layout 看看是否沒有第三方jar包,因為你使用spark叢集環境,所以你不需要第三方jar包
重新build:
Build-->>Build Artifcat ..--->>build 或者rebuild
執行後 就會在D:\mygit\study-scala\out\artifacts\study_scala_jar目錄下看到study-scala.jar
上傳到spark叢集伺服器的 spark_home下的myApp下
上傳/home/spark/opt/spark-1.2.0-bin-hadoop2.4/README.md到HDFS中
提交spark任務:
./bin/spark-submit --class "SimpleApp" --master local[4] myApp/study-scala.jar
執行結果為a:60,b:29
轉載: http://blog.csdn.net/stark_summer/article/details/42528081
相關文章
- Spark叢集和任務執行Spark
- Spark程式碼在叢集上執行過程理解Spark
- spark學習筆記--叢集執行SparkSpark筆記
- Spark開發-spark執行原理和RDDSpark
- IDEA開發Spark應用並提交本地Spark 2.1.0 standIdeaSpark
- Spark開發-Spark執行模式及原理一Spark模式
- 基於 ZooKeeper 搭建 Spark 高可用叢集Spark
- Spark 叢集執行任務失敗的故障處理Spark
- Spark2.4.5叢集安裝與本地開發Spark
- 如何基於Jupyter notebook搭建Spark叢集開發環境Spark開發環境
- 搭建spark on yarn 叢集SparkYarn
- Learning Spark——使用Intellij Idea開發基於Maven的Spark程式SparkIntelliJIdeaMaven
- Docker中提交任務到Spark叢集DockerSpark
- spark基礎之spark sql執行原理和架構SparkSQL架構
- Spark在Hadoop叢集上的配置(spark-1.1.0-bin-hadoop2.4)SparkHadoop
- Spark3.0.0叢集搭建Spark
- Spark面試題(七)——Spark程式開發調優Spark面試題
- 檢視spark程式執行狀態以及安裝sparkSpark
- Spark開發-Spark核心細說Spark
- Spark開發-spark環境搭建Spark
- Spark資料收藏--------Spark執行架構Spark架構
- 基於樹莓派的叢集實驗(一)--spark on yarn樹莓派SparkYarn
- Spark 叢集搭建從零開始之3 Spark Standalone叢集安裝、配置與測試Spark
- Spark閉包 | driver & executor程式程式碼執行Spark
- spark叢集的配置檔案Spark
- 【Spark】 Spark作業執行原理--獲取執行結果Spark
- Spark文件閱讀之一:Spark OverviewSparkView
- Spark修煉之道(進階篇)——Spark入門到精通:第一節 Spark 1.5.0叢集搭建Spark
- 工作日誌——基於k8s搭建spark叢集K8SSpark
- Spark開發-執行架構基本概念Spark架構
- Spark的執行原理Spark
- spark執行原理、模型Spark模型
- 部署Spark2.2叢集(on Yarn模式)SparkYarn模式
- 部署spark2.2叢集(standalone模式)Spark模式
- 大資料Spark叢集模式配置大資料Spark模式
- 解決Spark叢集無法停止Spark
- HADOOP SPARK 叢集環境搭建HadoopSpark
- ELK 在 Spark 叢集的應用Spark