hadoop3.x+scala+spark-mac血淚安裝經驗!!
hadoop3.x+scala+spark-mac血淚安裝經驗!!
總結:
最折騰的步驟是在hadoop的安裝,我嘗試安裝了4次,前兩次直接用brew install hadoop+其他部落格上的安裝教程,後面兩次直接按照hadoop官網說的安,第三次是因為我安裝在/usr/local下面遇到了使用者許可權的問題才又重新安裝了一遍。所以說按照hadoop官網安裝是最保險的。下面的介紹都是基於hadoop官網的教程,需要配合官網教程食用~
- 裝置:macOS+java版本–jdk1.8.0_171.jdk
- 參考連結:
Mac 安裝 Hadoop 3.x
hadoop 官方安裝教程 - 簡要的官方安裝過程介紹-官網上那些詳細的介紹在這裡就不贅述了
hadoop3.x 安裝
- 下載+解壓
在 http://www.apache.org/dyn/closer.cgi/hadoop/common/ 選擇一個合適的版本下載,我下的是hadoop-3.2.0,解壓到你想放的資料夾下面,我是在/user/***以下的資料夾下面。訪達右鍵前往資料夾輸入路徑就可以開啟這個資料夾啦。
- 按照官網教程在etc/hadoop/hadoop-env.sh新增引數
贈送 java安裝路徑查詢-終端輸入以下程式碼
/usr/libexec/java_home
- cd到hadoop資料夾下面命令列輸入
bin/hadoop
官網提供了3種安裝模式我選的是第二種偽分散式。
- 檔案配置(官網都有,懶得貼( ̀⌄ ́))
- etc/hadoop/core-site.xml
- etc/hadoop/hdfs-site.xml
- 無密登陸ssh
ssh這裡還要在系統裡開啟遠端登入,在 系統偏好設定 -> 共享 中,勾選 遠端登入,右邊選擇 所有使用者。
驗證是否成功,終端輸入
ssh localhost
- 格式化檔案系統(Format the filesystem)
- 切到hadoop資料夾下面
$ bin/hdfs namenode -format
這裡要千萬要注意的是隻能格式化一次,要是重複格式化的話會導致namenode的cluster id和datanode的cluster id不一致然後你就得去改id,但我改了沒有效果所以就刪檔重來。
- Start NameNode daemon and DataNode daemon(逐漸變懶):
- 切到hadoop資料夾下面,反正要看的你輸入的路徑有這個sh檔案就對了
sbin/start-dfs.sh
到了這裡你就能リンクスタート了,後面沒有坑,照著官網一步一步走,在Execution的6. Run some of the examples provided:
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar grep input output 'dfs[a-z.]+'
記得把2.9.2換成你自己的hadoop版本就可以執行的。
踩坑填坑
- namenode的clusterid和datanode的clusterid不一致如何修改datanode的id
開啟hadoop的logs資料夾-hadoop-***-datanode-bogon.log,尋找id不一致的報錯資訊,
然後你可以找到一個路徑,我是在/tmp/hadoop-***/dfs/,同樣訪達右鍵前往資料夾輸入/tmp然後再翻一翻就有啦(***代表我的使用者名稱) 把data的那個version裡面的clusterid改成跟name下面的clusterid一致;但我嘗試過了沒反應,可能是我自己哪裡又犯錯了趴。。 - 如何解除安裝安裝不成功的hadoop
- 刪除你解壓的那個軟體包
- 刪除/tmp/hadoop-***這個資料夾
配置環境變數(hadoop3+scala+spark)
開啟.bash_profile檔案,新增
export HADOOP_HOME=/Users/ironegg/hadoop-3.2.0
export SCALA_HOME=/usr/local/Cellar/scala/scala-2.12.8
export SPARK_HOME=/Users/ironegg/spark
export PYSPARK_PYTHON=python3
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin
配置環境變數的時候不要抄!!記得對照你自己的檔案路徑!!
叮~成功的~
scala安裝
直接brew install scala
spark安裝
官網 http://spark.apache.org/downloads.html
我安裝的是spark-2.4.0-bin-hadoop2.7.tar,解壓後把他放在跟hadoop同一資料夾中。
環境變數在上面一起配置好了,mac自帶了python2所以要新增個pyspark_python的路徑(跟上面的環境變數配置一起了),這樣pyspark才能基於python3呼叫。
終端輸入spark-shell調出spark
那個WARN NativeCodeLoader:62網上有解決辦法可以自行查詢雖然我還沒去看。
相關文章
- 我找工作的血淚史!
- 三段實習經歷總結的血淚教訓
- Hexo的詳細搭建過程——小白的血淚經歷QAQHexo
- A計劃小程式的血與淚
- 關於this-面試血淚史面試
- 開發規範是血淚教訓
- 大資料python包mrjob的血淚史大資料Python
- Win10安裝Cygwin-含淚推薦Win10
- 比賽獲獎的武林秘籍:06 5分鐘速通比賽路演答辯,國獎選手的血淚經驗!
- 安裝pytorch-gpu的經驗與教訓PyTorchGPU
- 【血淚教訓】godaddy競拍域名踩過的坑Go
- 機械轉行java自學經歷,零基礎學java,血淚總結的乾貨Java
- 都是血淚,程式設計師傍身的生存法則(上)程式設計師
- 分享 | OpenVINO的安裝、上手、學習路線經驗總結
- MySQL 8.0.13組複製安裝步驟和踩坑經驗分享MySql
- 一個關於X證券20000臺伺服器的血淚故事伺服器
- Mac 下打包APK的血淚坑(巨坑,巨巨坑,史前巨坑)MacAPK
- 關於程式碼的那些低階錯誤,都是血淚的教訓
- 搭建容易維護難!谷歌機器學習系統血淚教訓谷歌機器學習
- 安裝和體驗hiveHive
- 封裝 avm 元件經驗分享封裝元件
- 用血與淚換來的面試經面試
- (經驗分享)巨詳細vs2015+opencv3.4的安裝與半永久配置,時間換來的經驗~OpenCV
- Ubuntu16.04下安裝QQ的完整操作記錄(經驗證可用)Ubuntu
- 三年經驗帶你大發的快叄回血和值技巧
- 2024 安裝體驗 React NativeReact Native
- Zabbix安裝實驗報告
- elasticsearch叢集安裝+安全驗證+kibana安裝Elasticsearch
- 【11g 單庫解除安裝、靜默安裝】實驗
- MySQL | 零基礎入門經驗(1)安裝MySQL及建立資料庫MySql資料庫
- 經驗之談:如何在伺服器上安裝專業版的linux呢?伺服器Linux
- ansible2.4安裝和體驗
- Qt6.0 windows安裝體驗QTWindows
- matomo的安裝使用和體驗
- 香港懷孕多久可以驗血測男女 選擇去香港驗血的理由_清豐媽媽網
- 一個安卓程式媛的人生經驗安卓
- 香港驗血查男女準確嗎? 真實感受與經歷_薩嘎媽媽網
- 使用Vagrant 後發現虛擬機器磁碟空間爆滿的血淚填坑記虛擬機