【Hadoop】:Windows下使用IDEA搭建Hadoop開發環境

Geeksongs發表於2020-12-29

筆者鼓弄了兩個星期,終於把所有有關hadoop的環境配置好了,一是虛擬機器上的完全分散式叢集,但是為了平時寫程式碼的方便,則在windows上也配置了hadoop的偽分散式叢集,同時在IDEA上就可以編寫程式碼,同時在windows環境下進行執行。(如果不配置windows下的偽分散式叢集,則在IDEA上編寫的程式碼無法在windows平臺下執行)。筆者在網路上找了很多有關windows下使用idea搭建hadoop開發環境的中文教程都不太全,最後使用國外的英文教程配置成功,因此這裡整理一下,方便大家使用。

 

我的開發環境如下:

  1.Windows10

  2.Java 8 

  3.VMware-workstation-pro

 

1.Hadoop在windows當中的安裝

首先在Windows系統裡開啟瀏覽器,下載hadoop的安裝包(二進位制檔案):http://hadoop.apache.org/releases.html

開啟網址,我們會發現這樣的介面:

 

 

 由於hadoop在開發當中我們常常使用了2.x版本的,因此這裡我們這裡下載2.10.1版本的。如果你想使用其他版本的進行下載,那麼在下載之前需要檢查以下maven倉庫裡是否有相應版本所對應的版本,不然在使用IDEA進行開發的時候,則無法執行。我們開啟網址:https://mvnrepository.com/

在其中搜尋hadoop.則會出現以下的介面:

 

 

滑鼠往下滑動,發現果然!2.10.1的版本出現了!因此我們可以使用找個版本的hadoop,因為在maven倉庫裡是可以找到的,這樣就不會出現無法程式設計呼叫hadoop的問題:

 

 

 

2.將下載的檔案進行解壓

我們下載之後的檔案二進位制檔案字尾名為tar.gz,你可以來到你下載的地方,使用windows下的壓縮包軟體直接進行解壓,我使用的是2345壓縮軟體進行的解壓。有些教程讓我們必須在windows下模擬的linux環境下(MinGW)才能夠解壓,其實完全不用,就把tar.gz當作普通的壓縮檔案就好了,解壓之後將資料夾更名為hadoop。

3.設定環境變數

  1. 一方面是要設定好Java的環境變數
  2. 另一方面是要設定好剛剛下載的Hadoop的環境變數

我們在環境變數處分別設定JAVA_HOME和HADOOP_HOME(目的是為了hadoop在執行的時候能夠找到自己和java的地方在哪兒):

 

 

 然後在Path裡新增JAVA和hadoop的二進位制資料夾,bin資料夾,目的是我們這樣就可以使用cmd對java和haodoop進行操作:

 

 

 4.驗證環境變數的配置

開啟你的cmd,輸入以下命令,出現我這樣的輸出說明配置環境變數成功:

C:\Users\lenovo>hadoop -version
java version "1.8.0_162"
Java(TM) SE Runtime Environment (build 1.8.0_162-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.162-b12, mixed mode)

5.HDFS的配置

接下來就是配置HDFS的檔案,進行偽分散式叢集以適應你的計算機。(備註:偽分散式叢集也是分散式叢集,可以起動分散式計算的效果)

我們來到之前解壓的hadoop資料夾下,開啟etc/hadoop資料夾,發現裡面有很多檔案:

 

 

 現在我們的任務就是修改這些檔案當中的程式碼,務必修改,不然根本無法執行hadoop!!

6.修改 hadoop-env.cmd

開啟這個檔案,在找個檔案當中的末尾新增上:

set HADOOP_PREFIX=%HADOOP_HOME%
set HADOOP_CONF_DIR=%HADOOP_PREFIX%\etc\hadoop
set YARN_CONF_DIR=%HADOOP_CONF_DIR%
set PATH=%PATH%;%HADOOP_PREFIX%\bin

7.修改core-site.xml

將configuration處更改為:

<configuration>
   <property>
     <name>fs.defaultFS</name>
     <value>hdfs://0.0.0.0:9000</value>
   </property>
</configuration>

8.hdfs-site.xml

將configuration處更改為如下所示,其中

file:///F:/DataAnalytics/dfs/namespace_logs
file:///F:/DataAnalytics/dfs/data

這兩個資料夾一定需要是已經存在的資料夾,你可以在你的hadoop資料夾下隨意建立兩個資料夾,然後將下面的這兩個資料夾的絕對路徑替換成你的資料夾,這裡我也是建立了兩個新的資料夾,hadoop的下載資料夾裡本身是沒有的。

<configuration>
   <property>
     <name>dfs.replication</name>
     <value>1</value>
   </property>
   <property>
     <name>dfs.name.dir</name>
     <value>file:///F:/DataAnalytics/dfs/namespace_logs</value>
   </property>
   <property>
     <name>dfs.data.dir</name>
     <value>file:///F:/DataAnalytics/dfs/data</value>
   </property> </configuration>

9. mapred-site.xml

將下方的%USERNAME%替換成你windows的使用者名稱!!!這個十分重要,不要直接複製!!!

<configuration>
   <property>
      <name>mapreduce.job.user.name</name>
      <value>%USERNAME%</value>
    </property>
   <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
    </property>
  <property>
     <name>yarn.apps.stagingDir</name>
     <value>/user/%USERNAME%/staging</value>
   </property>
  <property>
     <name>mapreduce.jobtracker.address</name>
     <value>local</value>
   </property>
</configuration>

10.yarn-site.xml

修改為如下所示:

<configuration>
   <property>
     <name>yarn.server.resourcemanager.address</name>
     <value>0.0.0.0:8020</value>
   </property>
  <property>
     <name>yarn.server.resourcemanager.application.expiry.interval</name>
     <value>60000</value>
   </property>
  <property>
     <name>yarn.server.nodemanager.address</name>
     <value>0.0.0.0:45454</value>
   </property>
  <property>
     <name>yarn.nodemanager.aux-services</name>
     <value>mapreduce_shuffle</value>
   </property>
  <property>
     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
     <value>org.apache.hadoop.mapred.ShuffleHandler</value>
   </property>
  <property>
     <name>yarn.server.nodemanager.remote-app-log-dir</name>
     <value>/app-logs</value>
   </property>
  <property>
     <name>yarn.nodemanager.log-dirs</name>
     <value>/dep/logs/userlogs</value>
   </property>
  <property>
     <name>yarn.server.mapreduce-appmanager.attempt-listener.bindAddress</name>
     <value>0.0.0.0</value>
   </property>
  <property>
     <name>yarn.server.mapreduce-appmanager.client-service.bindAddress</name>
     <value>0.0.0.0</value>
   </property>
  <property>
     <name>yarn.log-aggregation-enable</name>
     <value>true</value>
   </property>
  <property>
     <name>yarn.log-aggregation.retain-seconds</name>
     <value>-1</value>
   </property>
  <property>
     <name>yarn.application.classpath</name>
     <value>%HADOOP_CONF_DIR%,%HADOOP_COMMON_HOME%/share/hadoop/common/*,%HADOOP_COMMON_HOME%/share/hadoop/common/lib/*,%HADOOP_HDFS_HOME%/share/hadoop/hdfs/*,%HADOOP_HDFS_HOME%/share/hadoop/hdfs/lib/*,%HADOOP_MAPRED_HOME%/share/hadoop/mapreduce/*,%HADOOP_MAPRED_HOME%/share/hadoop/mapreduce/lib/*,%HADOOP_YARN_HOME%/share/hadoop/yarn/*,%HADOOP_YARN_HOME%/share/hadoop/yarn/lib/*</value>
   </property>
</configuration>

11.初始化環境變數

在windows下的cmd,輸入cmd的命令,用於初始化環境變數。hadoop-env.cmd字尾為cmd,說明是cmd下可執行的檔案:

%HADOOP_HOME%\etc\hadoop\hadoop-env.cmd

12.格式化檔案系統(File System)

這個命令在整個hadoop的配置環境和之後的使用當中務必僅使用一次!!!!不然的話後續會導致hadoop日誌損壞,NameNode無法開啟,整個hadoop就掛了!

將如下的命令輸入到cmd當中進行格式化:

hadoop namenode -format

輸出:

2018-02-18 21:29:41,501 INFO namenode.FSImage: Allocated new BlockPoolId: BP-353327356-172.24.144.1-1518949781495
2018-02-18 21:29:41,817 INFO common.Storage: Storage directory F:\DataAnalytics\dfs\namespace_logs has been successfully formatted.
2018-02-18 21:29:41,826 INFO namenode.FSImageFormatProtobuf: Saving image file F:\DataAnalytics\dfs\namespace_logs\current\fsimage.ckpt_0000000000000000000 using no compression
2018-02-18 21:29:41,934 INFO namenode.FSImageFormatProtobuf: Image file F:\DataAnalytics\dfs\namespace_logs\current\fsimage.ckpt_0000000000000000000 of size 390 bytes saved in 0 seconds.
2018-02-18 21:29:41,969 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0

13.向hadoop檔案當中注入winutills檔案

由於windows下想要開啟叢集,會有一定的bug,因此我們去網站:https://github.com/steveloughran/winutils

下載對應版本的winutils.exe檔案。開啟這個Github倉庫後如下所示:

 

 

 我們開啟hadoop2.8.3/bin,選擇其中的winutils.exe檔案進行下載,然後將下載的這個檔案放入到本地的hadoop/bin檔案當中。不然的話,你開啟一會兒你的偽分散式叢集,馬上hadoop就會自動關閉,缺少這兩個檔案的話。

我本地的bin檔案最終如下所示:

 

 

 14.開啟hadoop叢集

下面就是最激動人心的開啟hadoop叢集了!!!!我們在cmd當中輸入:

C:\Users\lenovo>%HADOOP_HOME%/sbin/start-all.cmd
This script is Deprecated. Instead use start-dfs.cmd and start-yarn.cmd
starting yarn daemons

這樣就會跳出來很多黑色的視窗,如下所示:

 

 

 然後可以使用JPS工具檢視目前開啟的node有哪些,如果出現namenode,datanode的話說明叢集基本上就成功了。如下所示:

 

 

 15.開啟本地瀏覽器進行驗證

我們在瀏覽器輸入localhost:50070,如果能夠開啟這樣的網頁,說明hadoop已經成功開啟:

 

 

 

接下來就可以開始IDEA的配置了

 

16.建立MAVEN專案工程

開啟IDEA之後,裡面的引數和專案工程名稱隨便寫,等待工程建立完畢即可。然後我們編輯pom.xml檔案,如下所示:

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.atguigu</groupId>
    <artifactId>hdfs1205</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
    </properties>
    <dependencies>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-core</artifactId>
            <version>2.8.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.10.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.10.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.10.1</version>
        </dependency>
    </dependencies>

</project>

因為我使用了2.10.1版本,因此匯入的包均為2.10.1,除了log4j,這個是固定的2.8.2版本的。

然後點選我箭頭指向的同步maven倉庫,如下所示:

 

 

 同步完成之後,IDEA左邊的external libararies處就會顯示大量的有關hadoop的jar包,如下所示:

 

 

 這樣就說明我們匯入maven倉庫成功了。

17.編寫程式碼

現在我們開始編寫程式碼,在開啟hadoop偽分散式叢集之後,程式碼才可以執行哦!

程式碼如下所示:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import java.net.URI;

public class Test {
    public static void main(String[] args) throws Exception {
        FileSystem fs = FileSystem.get(new URI("hdfs://127.0.0.1:9000"), new Configuration());

        FileStatus[] files = fs.listStatus(new Path("/"));
        for (FileStatus f : files) {
            System.out.println(f);
        }
        System.out.println("Compile Over");
    }
}

這段程式碼的含義是遍歷hadoop檔案系統(HDFS)下的root下所有檔案的狀態,並輸出,由於我目前並沒有在HDFS下put了任何檔案,因此不會有輸出,出現這樣的輸出,說明程式碼程式碼執行成功:

 

 exit code 0,返回code為0說明執行成功!

相關文章