centos下安裝分佈式Hadoop 3.1.1

一)安裝環境

centos 7

JDK 1.8.0_181

VMware 12 pro

hadoop 3.1.1


二)安裝環境準備

  1. 分佈式系統準備

    下面示例中,我安裝了3個獨立的虛擬機系統,其中HW-Machine作爲master,另外2臺分別爲slaves:

    1.png

  2. Java環境配置        //3臺虛擬機均需配置

    JDK安裝包的獲取以及Java環境的配置,請參考另一篇博文《Centos下Java環境安裝配置》。  

  3. 靜態IP設置        //3臺虛擬機均需設置,並修改/etc/hosts文件及/etc/hostname文件

    由於分佈式系統配置時,會寫入系統主機名或者主機IP,因此我們需要對Hadoop環境所用的系統主機設置靜態IP,具體設置方法,請參考另一篇博《VMware中Centos系統設置靜態IP》

    我這裏的設置情況如下:

    2.png

  4. SSH免密碼登錄配置            //3臺虛擬機均需配置

    Hadoop的master與slave之間的數據傳輸會使用SSH,因此我們還需要對Hadoop環境所用的系統主機設置SSH免密碼登錄,具體設置方法,請參考另一篇博文《Centos設置SSH免密碼遠程登錄》



三)Hadoop安裝配置

注:

a. hadoop要求,所有用到的主機系統需要建立相同的用戶,在本例中我直接使用root賬號,因此所有操作均是以root賬號;

b. 對應下面配置文件修改,未特別說明,只需修改master上面的文件。

  1. Hadoop下載

    直接去apache官網下載http://mirrors.hust.edu.cn/apache/  ,如本次實驗中下載的是: hadoop-3.1.1.tar.gz

  2. 直接解壓下載軟件包: tar -zxvf hadoop-3.1.1.tar.gz -C  DestinationFolder,比如我解壓到了/usr/local/目錄下面(這裏的3臺系統均需下載並解壓)

    3.png

  3. 配置文件修改

    3.1 修改core-site.xml文件,文件位置/xxx/etc/hadoop/目錄下,3個系統都必須修改該文件

    3.png

    3.2 修改hadoop-env.sh文件,文件位置/xxx/etc/hadoop/目錄下,3個系統都必須修改該文件

    4.png

    或者如下修改(注意JAVA_HOME與HADOOP_HOME根據你自己環境配置設定),多添加紅框內的內容,這樣設置後可以省略後面的3.7,3.8,3.9三個步驟:

    1.png

    3.3 修改hdfs-site.xml文件,文件位置/xxx/etc/hadoop/目錄下,只需修改master節點

    5.png

    或者,按如下設置(注意根據master實際配置,修改name、data目錄路徑及namenode的地址):


    2.png

    3.4 修改mapred-site.xml文件,文件位置/xxx/etc/hadoop/目錄下,只需修改master節點

    6.png

    注意:該文件可以只用設置此一個屬性,其他會默認初始化。

    3.5 修改workers文件,文件位置/xxx/etc/hadoop/目錄下,只需修改master節點

    7.png

    注意:這裏可以只設置slave1和slave2,這樣master系統就不會作爲DataNode節點。

    3.6 修改yarn-site.xml文件,文件位置/xxx/etc/hadoop/目錄下,只需修改master節點

    8.png

    注意:這裏也可以只用設置yarn.resourcemanager.hostname和yarn.nodemanager.aux-services屬性。

    3.7 修改start-dfs.sh及stop-dfs.sh文件,文件位置/xxx/sbin/目錄下,在這兩個文件頭部加入如下變量:

    HDFS_DATANODE_USER=root

      HADOOP_SECURE_DN_USER=hdfs

      HDFS_NAMENODE_USER=root

      HDFS_SECONDARYNAMENODE_USER=root

     3.8 修改start-yarn.sh和stop-yarn.sh文件,文件位置/xxx/sbin/目錄下,在這兩個文件頭部加入如下變量:

     YARN_RESOURCEMANAGER_USER=root

     HADOOP_SECURE_DN_USER=yarn

     YARN_NODEMANAGER_USER=root

     3.9 修改start-all.sh和stop-all.sh文件文件位置/xxx/sbin/目錄下,在這兩個文件頭部加入如下變量:

     TANODE_USER=root

     HDFS_DATANODE_SECURE_USER=hdfs

     HDFS_NAMENODE_USER=root

     HDFS_SECONDARYNAMENODE_USER=root

     YARN_RESOURCEMANAGER_USER=root

     HADOOP_SECURE_DN_USER=yarn

     YARN_NODEMANAGER_USER=root

  4. 初始化Hadoop系統,切換至/xxx/bin目錄下

     運行命令:./hdfs namenode  -format

     不報錯返回 “Exiting with status 0” 爲成功,“Exiting with status 1”爲失敗

  5. 啓動Hadoop並驗證,切換至/xxx/sbin目錄下

     運行命令啓動: ./start-all.sh

     運行命令驗證: jps, 如果看到以下服務則表示已經成功啓動服務:

     9.png

     或者也可打開瀏覽器,輸入http://master:50070驗證,可看到如下網頁:

     10.png

     至此,Hadoop安裝驗證完畢!

     

注意:

安裝配置Hadoop3.1.1還可以結合參考:https://blog.csdn.net/qq_41684957/article/details/81946128 


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章