spark叢集的配置檔案
spark.env.sh
#指定yarn的配置檔案地址
YARN_CONF_DIR=/opt/module/hadoop-2.7.7/etc/hadoop
#指定JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_261
#指定Spark Master 地址
export SPARK_MASTER_HOST=hadoop102
export SPARK_MASTER_POST=7077
#指定spark的執行引數
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080
-Dspark.history.retainedApplications=3
-Dspark.history.fs.logDirectory=hdfs://hadoop102:9000/spark_log"
spark.defaults.conf
spark.eventLog.dir 指定spark的日誌存放地方,可以根據自己的叢集換掉
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop102:9000/spark_log
spark.eventLog.compress true
相關文章
- 大資料Spark叢集模式配置大資料Spark模式
- 搭建spark on yarn 叢集SparkYarn
- 基於Hadoop不同版本搭建hive叢集(附配置檔案)HadoopHive
- Spark3.0.0叢集搭建Spark
- docker下,極速搭建spark叢集(含hdfs叢集)DockerSpark
- spark學習筆記--叢集執行SparkSpark筆記
- LNMP 分散式叢集(二):NFS檔案伺服器的搭建與檔案緩衝上傳的配置LNMP分散式NFS伺服器
- redis偽叢集配置Cluster叢集模式Redis模式
- Kafka叢集配置Kafka
- 部署spark2.2叢集(standalone模式)Spark模式
- 部署Spark2.2叢集(on Yarn模式)SparkYarn模式
- Spark叢集和任務執行Spark
- 【Spark篇】---Spark中Shuffle檔案的定址Spark
- 使用Artifactory叢集作為檔案共享中心
- Spark3.0.1各種叢集模式搭建Spark模式
- Docker中提交任務到Spark叢集DockerSpark
- 基於 ZooKeeper 搭建 Spark 高可用叢集Spark
- Docker Elasticsearch 叢集配置DockerElasticsearch
- Oracle 叢集的自啟動,OLR與套接字檔案Oracle
- es 叢集配置推薦
- 39_配置redis叢集Redis
- vCenter6.7 叢集配置
- dubbo&nacos叢集配置
- linux 怎麼配置叢集Linux
- Etcd叢集靜態配置
- spark直接讀取本地檔案系統的檔案Spark
- Springboot專案中需整合的依賴集和檔案配置Spring Boot
- Spark 叢集執行任務失敗的故障處理Spark
- docker下的spark叢集,調整引數榨乾硬體DockerSpark
- ASM叢集檔案系統ACFS(ASM Cluster File System)ASM
- Oracle叢集技術 | OLR與套接字檔案(二)Oracle
- Zookeeper-3.4.10 叢集的安裝配置
- 大資料專案實踐(一)——之HDFS叢集配置大資料
- docker 配置 Mysql主從叢集DockerMySql
- hadoop叢集配置和啟動Hadoop
- Hadoop完全分散式叢集配置Hadoop分散式
- Spark Streaming監聽HDFS檔案(Spark-shell)Spark
- Flume:spark-project專案的flume配置SparkProject