Spark開發-Standalone模式
Standalone模式
在Spark Standalone模式中,spark叢集有Master節點和worker節點組成,使用者程式通過與master節點互動,申請所需的資源,Worker節點負責具體executor的啟動執行。
以WordCount為例,Standalone模式下的應用程式的啟動命令如下
./bin/run-example org.apache.spark.examples.JavaWordCount spark://192.168.18.140:7077
內部實現原理
如圖,Standalone模式使用SparkDeploySchedulerBackend配合TaskSchedulerImp1工作,而SparkDeploySchedulerBackend本身擴充自CoarseGrainedSchedulerBackend.
CoarseGrainedSchedulerBackend是一個基於Akka Actor實現的粗粒度的資源排程類,在整個Spark作業執行期間,CoarseGrainedSchedulerBackend會監聽並持有註冊給它的executor資源,並且在接受executor註冊、狀態更新、相應Scheduler請求等各種時刻,根據現有Executor資源發起任務排程流程。
Executor本身是可以通過各種途徑啟動的,在Spark Standalone模式中,SparkDeploySchedulerBackend通過client類向Spark Master傳送請求,在獨立部署的spark叢集中啟動CoarseGrainedExecutorBackend,根據所需的CPU資源的數量,一個或多個CoarseGrainedExecutorBackend在Spark Worker節點上啟動並註冊給CoarseGrainedSchedulerBackend的Driver Actor
完成所需Actor的啟動後,任務排程就在CoarseGrainedSchedulerBackend和CoarseGrainedExecutorBackend的Actor之間直接完成
相關文章
- Spark Standalone模式 高可用部署Spark模式
- 【Spark篇】--Spark中Standalone的兩種提交模式Spark模式
- 部署spark2.2叢集(standalone模式)Spark模式
- 深入理解Spark 2.1 Core (五):Standalone模式Spark模式
- Windows上搭建Standalone模式的Spark環境Windows模式Spark
- Spark Standalone模式 Master程式掛掉問題Spark模式AST
- spark 2.1.0 standalone模式配置&&打包jar包透過spark-submit提交Spark模式JARMIT
- Spark開發-Local模式Spark模式
- spark之 spark 2.2.0 Standalone安裝、wordCount演示Spark
- Spark開發-Yarn cluster模式SparkYarn模式
- Spark開發-Spark執行模式及原理一Spark模式
- Spark 叢集搭建從零開始之3 Spark Standalone叢集安裝、配置與測試Spark
- Spark開發-Spark核心細說Spark
- Spark開發-spark環境搭建Spark
- standalone執行模式下 應用模式作業部署模式
- Spark開發-SparkSql的開發SparkSQL
- 01-Spark的Local模式與應用開發入門Spark模式
- Spark開發-spark執行原理和RDDSpark
- Spark開發-控制操作Spark
- Spark開發-transformations操作SparkORM
- Spark開發-Action操作Spark
- Spark面試題(七)——Spark程式開發調優Spark面試題
- Spark開發-Shuffle優化Spark優化
- Zookeeper原始碼分析(三) ----- 單機模式(standalone)執行原始碼模式
- Spark 從零到開發(五)初識Spark SQLSparkSQL
- Spark開發-廣播變數Spark變數
- IDEA開發Spark應用並提交本地Spark 2.1.0 standIdeaSpark
- Spark 效能調優--開發階段Spark
- Spark開發-RDD介面程式設計Spark程式設計
- Spark開發-WordCount詳細講解Spark
- Spark開發-HA環境的搭建Spark
- 如何用 Spark 快速開發應用?Spark
- StreamAnalytix Visual Spark Studio (二)!Spark開發史上最強大的神器,只需拖拽控制元件即可完成Spark開發,造福國內的Spark開發者!Spark控制元件
- spark 基礎開發 Tips總結Spark
- 在Intellij中開發Spark--demoIntelliJSpark
- Spark開發-RDD分割槽重新劃分Spark
- Spark開發-WordCount流程詳細講解Spark
- 大資料開發-Spark-初識Spark-Graph && 快速入門大資料Spark