關於MASTER=spark://SparkMaster:7077 ./spark-shell問題
原網頁:http://bbs.csdn.net/topics/390941085
在執行MASTER=spark://SparkMaster:7077 ./spark-shell時候
出現scala了,但是後面緊接著出現了。
14/11/25 06:02:08 WARN client.AppClient$ClientActor: Could not connect to akka.tcp://sparkMaster@SparkMaster:7070: akka.remote.EndpointAssociationException: Association failed with [akka.tcp://sparkMaster@SparkMaster:7070]
14/11/25 06:02:08 WARN client.AppClient$ClientActor: Could not connect to akka.tcp://sparkMaster@SparkMaster:7070: akka.remote.EndpointAssociationException: Association failed with [akka.tcp://sparkMaster@SparkMaster:7070]
14/11/25 06:02:28 ERROR cluster.SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.
14/11/25 06:02:28 ERROR scheduler.TaskSchedulerImpl: Exiting due to error from cluster scheduler: All masters are unresponsive! Giving up.
在錯誤日誌中發現
14/11/25 21:51:40 ERROR remote.EndpointWriter: AssociationError [akka.tcp://sparkMaster@SparkMaster:7077] -> [akka.tcp://spark@SparkMaster:34726]: Error [Association failed with [akka.tcp://spark@SparkMaster:34726]] [
akka.remote.EndpointAssociationException: Association failed with [akka.tcp://spark@SparkMaster:34726]
Caused by: akka.remote.transport.netty.NettyTransport$$anonfun$associate$1$$anon$2: Connection refused: SparkMaster/192.168.64.129:34726
]這條語句
也不知道到底怎麼弄。
然後我對比和別人的執行,我的是akka.tcp://sparkMaster@SparkMaster:7070:
而別人是akka.tcp://spark@SparkMaster:7070:配置都一樣,是不是這個原因。
比較有意思的是,如果直接在bin資料夾下啟動spark shell,倒能執行成功。
然後我把MASTER=spark://SparkMaster:7077 ./spark-shell中的SparkMaster直接改成主節點Ip,倒不出現14/11/25 06:02:08 WARN client.AppClient$ClientActor: Could not connect to akka.tcp://sparkMaster@SparkMaster:7070: akka.remote.EndpointAssociationException: Association failed with [akka.tcp://sparkMaster@SparkMaster:7070]這句話了,還是出現14/11/25 06:02:28 ERROR scheduler.TaskSchedulerImpl: Exiting due to error from cluster scheduler: All masters are unresponsive! Giving up.錯誤。
我在spark-env.sh中設定SPARK_MASTER_IP =SparkMaster
然後在hosts中設定xxx.xxx.xx.xx SparkMaser
hostname中設定SparkMaster.應該是master的ip沒什麼問題。
如果在bin啟動spark shell ,然後跑wordcount程式沒什麼問題的。
就是MASTER=spark://SparkMaster:7077 ./spark-shell時候,成功啟動了shell,緊接著出現了那些異常就自動退出shell了。
挺怪異,我試了一下master=spark://centos.host1:7077 ./spark-shell 沒有問題。樓主把MASTER改成小寫試試,服務重啟在執行試試。
相關文章
- Spark Standalone模式 Master程式掛掉問題Spark模式AST
- Spark之HiveSupport連線(spark-shell和IDEA)SparkHiveIdea
- Spark Streaming監聽HDFS檔案(Spark-shell)Spark
- Spark master standalongSparkAST
- 初學Spark——關於安裝SparkSpark
- Hadoop/Spark相關面試問題總結HadoopSpark面試
- 關於FastHashMap問題ASTHashMap
- No known master node問題AST
- git關於origin和masterGitAST
- Spark —— Spark OOM Error問題排查定位SparkOOMError
- 關於跨域問題跨域
- 關於SQLServerDriver的問題SQLServer
- 關於JdonFramework配置問題Framework
- 關於 JavaMail 的問題JavaAI
- 關於session的問題Session
- 關於原始碼問題。原始碼
- 關於Encoding問題Encoding
- 關於盒模型相關的問題模型
- 關於 go-micro 相關問題Go
- 關於jetty連線關閉問題Jetty
- 關於並查集問題並查集
- 關於 swoole 除錯問題除錯
- 關於MQTT 使用遇到問題MQQT
- 關於javascript的this指向問題JavaScript
- 關於rem佈局問題REM
- 關於跨域的問題跨域
- 關於bit code的問題
- 關於序列同步的問題
- 關於IP地址的問題
- 關於橋模式的問題模式
- 求救 關於parallel的問題Parallel
- 關於web start的問題Web
- 關於action的error問題Error
- 關於ADAPTER的問題APT
- 關於匯入模式問題模式
- 關於session的奇怪問題Session
- php關於session的問題PHPSession
- 關於diag程式的問題