Ubuntu下 hadoop的安裝與配置
轉載自:https://www.cnblogs.com/87hbteo/p/7606012.html
一、準備
1.1建立hadoop使用者
$ sudo useradd -m hadoop -s /bin/bash #建立hadoop使用者,並使用/bin/bash作為shell $ sudo passwd hadoop #為hadoop使用者設定密碼,之後需要連續輸入兩次密碼 $ sudo adduser hadoop sudo #為hadoop使用者增加管理員許可權 $ su - hadoop #切換當前使用者為使用者hadoop $ sudo apt-get update #更新hadoop使用者的apt,方便後面的安裝
1.2安裝SSH,設定SSH無密碼登陸
$ sudo apt-get install openssh-server #安裝SSH server $ ssh localhost #登陸SSH,第一次登陸輸入yes $ exit #退出登入的ssh localhost $ cd ~/.ssh/ #如果沒法進入該目錄,執行一次ssh localhost $ ssh-keygen -t rsa
輸入完 $ ssh-keygen -t rsa 語句以後,需要連續敲擊三次回車,如下圖:
其中,第一次回車是讓KEY存於預設位置,以方便後續的命令輸入。第二次和第三次是確定passphrase,相關性不大。兩次回車輸入完畢以後,如果出現類似於下圖所示的輸出,即成功:
之後再輸入:
$ cat ./id_rsa.pub >> ./authorized_keys #加入授權 $ ssh localhost #此時已不需密碼即可登入localhost,並可見下圖。如果失敗則可以搜尋SSH免密碼登入來尋求答案
二、安裝jdk1.7
首先在oracle官網下載jdk1.7 http://www.oracle.com/technetwork/java/javase/downloads/index.html 接下來進行安裝與環境變數配置,根據個人電腦系統選擇對應版本,我選的是jdk-7u80-linux-x64.tar.gz
$ mkdir /usr/lib/jvm #建立jvm資料夾 $ sudo tar zxvf jdk-7u80-linux-x64.tar.gz -C /usr/lib #/ 解壓到/usr/lib/jvm目錄下 $ cd /usr/lib/jvm #進入該目錄 $ mv jdk1.7.0_80 java #重新命名為java $ vi ~/.bashrc #給JDK配置環境變數
注:其中如果許可權不夠,無法在相關目錄下建立jvm資料夾,那麼可以使用 $ sudo -i 語句進入root賬戶來建立資料夾。
另外推薦使用vim來編輯環境變數,即最後一句使用指令
$ vim ~/.bashrc
如果沒有vim,可以使用:
$sudo apt-get install vim
來進行下載。
在.bashrc檔案新增如下指令:
export JAVA_HOME=/usr/lib/jvm/java export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH
在檔案修改完畢以後,輸入程式碼:
$ source ~/.bashrc #使新配置的環境變數生效
$ java -version #檢測是否安裝成功,檢視java版本
如果出現如下圖所示的內容,即為安裝成功
注:如果各位不想一個一個的敲擊,可以複製黏貼,但因為vim不支援系統貼上板,所以需要先下載相關外掛vim-gnome
sudo apt-get install vim-gnome
然後複製相關程式碼,游標移到指定位置,使用指令 "+p,即可複製,注意 " 也是需要敲擊的內容,即一共有 " 、+、p 三個操作符需要敲入
三、安裝hadoop-2.6.0
先下載hadoop-2.6.0.tar.gz,連結如下:
http://mirrors.hust.edu.cn/apache/hadoop/common/
下面進行安裝:
$ sudo tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local #解壓到/usr/local目錄下 $ cd /usr/local $ sudo mv hadoop-2.6.0 hadoop #重新命名為hadoop $ sudo chown -R hadoop ./hadoop #修改檔案許可權
給hadoop配置環境變數,將下面程式碼新增到.bashrc檔案:
export HADOOP_HOME=/usr/local/hadoop export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
同樣,執行source ~./bashrc使設定生效,並檢視hadoop是否安裝成功
相關文章
- Ubuntu16.04-hadoop3.1.0安裝與配置UbuntuHadoop
- Ubuntu24.04下Docker安裝與配置UbuntuDocker
- 本地windows搭建spark環境,安裝與詳細配置(jdk安裝與配置,scala安裝與配置,hadoop安裝與配置,spark安裝與配置)WindowsSparkJDKHadoop
- Ubuntu 16.04 下安裝配置caffeUbuntu
- centos7 (阿里雲、linux) 單機spark的安裝與配置詳解(jdk安裝與配置,scala安裝與配置,hadoop安裝與配置,spark安裝與配置)CentOS阿里LinuxSparkJDKHadoop
- Ubuntu下PostgreSQL的安裝UbuntuSQL
- SSH免密登入+JDK安裝配置+Hadoop安裝配置JDKHadoop
- ubuntu下OpenLDAP安裝與初始化UbuntuLDA
- 在Ubuntu上安裝Hadoop單機版UbuntuHadoop
- 在Ubuntu 18.04.1上安裝Hadoop叢集UbuntuHadoop
- maven下載、安裝與配置Maven
- Linux下rsync安裝與配置Linux
- windows下安裝部署 hadoopWindowsHadoop
- Ubuntu 下 Oh My Zsh 的最佳實踐「安裝及配置」Ubuntu
- Ubuntu安裝zabbix配置教程Ubuntu
- Linux Ubuntu安裝配置教程LinuxUbuntu
- 在ubuntu supervisor 安裝 配置Ubuntu
- Ubuntu下安裝CUDAUbuntu
- Ubuntu下JDK安裝UbuntuJDK
- ubuntu下安裝mysqlUbuntuMySql
- ubuntu下安裝oracleUbuntuOracle
- ubuntu下安裝thriftUbuntu
- ubuntu 下 Anaconda安裝Ubuntu
- Hadoop(一)Hadoop核心架構與安裝Hadoop架構
- VMware 中解除安裝安裝Ubuntu 20.04.1 ——Ubuntu系統配置(一)Ubuntu
- MySQL - 下載與安裝配置(Linux)MySqlLinux
- pycharm下載安裝與基本配置PyCharm
- Windows下Scoop安裝、配置與使用WindowsOOP
- CentOS 8.2下VNC安裝與配置CentOSVNC
- CentOS 下多版本 PHP 的安裝與配置CentOSPHP
- CentOS6下mysql的安裝與配置CentOSMySql
- Ubuntu 20.4 上安裝配置 CouchDBUbuntu
- Ubuntu 18.04 安裝配置 MySQL 5.7UbuntuMySql
- Ubuntu安裝配置phpstorm+xdebugUbuntuPHPORM
- win10安裝ubuntu的方法_windows10下如何安裝ubuntuWin10UbuntuWindows
- Ubuntu22.04下Docker的安裝UbuntuDocker
- Ubuntu下Qt4的安裝UbuntuQT
- Ubuntu下安裝Stanford CoreNLPUbuntu