spark原始碼之任務提交過程
感謝逃出你的肖生克文章指導。
一般在命令列我們會以spark-submit來提交自己的程式碼,並會以這個形式提交
./bin/spark-submit \
--class <main-class> \
--master <master-url> \
--deploy-mode <deploy-mode> \
--conf <key>=<value> \
... # other options
<application-jar> \
[application-arguments]
程式碼提交到spark後大概會有三個流程。
1.找到或是設定spark_home變數
2.設定相關相關的一些環境變數,並把引數解析
3.執行我們提交的程式
具體例項參見
https://blog.csdn.net/do_yourself_go_on/article/details/75005204
對部分進行註釋補充:
build_command() {"$RUNNER"-Xmx128m -cp" $LAUNCH_CLASSPATH" org.apache.spark.launcher.Main "$@" printf"%d\0"$?}
該操作是spark-class中將引數解析的操作,增加$LAUNCH_CLASSPATH" 是為了給Main程式驗證是否是該操作,解析時會把引數都列印到命令端,並把引數放入陣列返回。
相關文章
- spark core原始碼分析1 叢集啟動及任務提交過程Spark原始碼
- spark核心(下)——job任務提交原始碼解析Spark原始碼
- Spark on Yarn 任務提交流程原始碼分析SparkYarn原始碼
- Spark3.0YarnCluster模式任務提交流程原始碼分析SparkYarn模式原始碼
- [原始碼解析]Oozie來龍去脈之提交任務原始碼
- spark 原始碼分析之十九 -- Stage的提交Spark原始碼
- Docker中提交任務到Spark叢集DockerSpark
- 【Spark篇】---Spark中yarn模式兩種提交任務方式SparkYarn模式
- MapReduce——客戶端提交任務原始碼分析客戶端原始碼
- Spark 原始碼系列(九)Spark SQL 初體驗之解析過程詳解Spark原始碼SQL
- 【Spark篇】---Spark資源排程和任務排程Spark
- Dubbo原始碼解析之服務呼叫過程原始碼
- Dubbo原始碼解析之服務引入過程原始碼
- 【Spark篇】---Spark中資源和任務排程原始碼分析與資源配置引數應用Spark原始碼
- Spark中資源排程和任務排程Spark
- PostgreSQL 原始碼解讀(123)- MVCC#8(提交事務-實際提交過程)SQL原始碼MVCC#
- MySQL 事務提交過程MySql
- Spark 原始碼系列(六)Shuffle 的過程解析Spark原始碼
- LiteOS-任務篇-原始碼分析-任務排程函式原始碼函式
- Dubbo原始碼解析之服務匯出過程原始碼
- Flink原始碼剖析:Jar包任務提交流程原始碼JAR
- 程式碼提交過程
- twitter storm原始碼走讀之3--topology提交過程分析ORM原始碼
- gulp原始碼解析之任務管理原始碼
- [原始碼分析] 定時任務排程框架 Quartz 之 故障切換原始碼框架quartz
- spark-submit提交任務時執行流程(簡單版)SparkMIT
- Dubbo服務呼叫過程原始碼解析④原始碼
- Laravel 服務之任務排程Laravel
- Spark原始碼分析之MemoryManagerSpark原始碼
- Spark原始碼分析之BlockStoreSpark原始碼BloC
- 原始碼|HDFS之NameNode:啟動過程原始碼
- 原始碼|HDFS之DataNode:啟動過程原始碼
- knockout原始碼分析之執行過程原始碼
- 小豹子帶你看原始碼:Java 執行緒池(三)提交任務原始碼Java執行緒
- SOFA 原始碼分析 —— 服務釋出過程原始碼
- 比特幣原始碼分析:任務排程器的使用比特幣原始碼
- Spark 原始碼解析 : DAGScheduler中的DAG劃分與提交Spark原始碼
- Spark 原始碼解析之SparkContextSpark原始碼Context