【教程】【環境搭建】大數據僞分佈式搭建Hadoop(Win10+ECS+putty+FileZilla)

前言

Hadoop是一個由Apache基金會所開發的分佈式系統基礎架構。用戶可以在不瞭解分佈式底層細節的情況下,開發分佈式程序。充分利用集羣的威力進行高速運算和存儲。本文采用雲上僞分佈式搭建,一是因爲操作簡單,二是因爲沒有多餘的資金購買設備。。命令行基本放成一行一段,方便右邊直接一鍵複製,一步一步走防止出錯。如果有遇到問題請仔細找出錯誤信息,到網上去搜索。

預置環境

1.本地環境

操作系統:Win10
預置軟件:
		FileZilla_3.47.1_win64(本地與雲服務器之間進行文件傳輸)
		portable-putty-x64(SSH本地連接雲服務器)

2.雲服務器

平臺:阿里雲
CPU: 2核
內存: 4 GiB
操作系統: Ubuntu 16.04 64位

基礎配置

以下的test爲本次實驗創建的用戶名,可自行替換

1.創建新用戶

(1)創建一個新的普通用戶test,並使用 /bin/bash 作爲 shell

sudo useradd -m test -s /bin/bash

(2)設置密碼,請按系統提示輸入兩次密碼

sudo passwd test

(3)爲test用戶增加管理員權限,方便後續部署

sudo adduser test sudo

(4)把登錄用戶從root用戶切換到test用戶

su test

(5)更新apt,後續我們使用apt安裝軟件

sudo apt-get update

(6)安裝vim

sudo apt-get install vim

安裝JDK

1.傳輸JDK壓縮文件

使用Filezilla將JDK的安裝壓縮包傳到/test/home/Downloads,若沒有Downloads文件夾,則自己新建一個

mkdir Downloads

2.解壓JDK

(1)進入/usr/lib,創建jvm目錄用來存放JDK文件

cd /usr/lib
sudo mkdir jvm

(2)進入test用戶的主目錄

cd ~ 

(3)注意區分大小寫字母,剛纔已經通過FileZilla把JDK安裝包jdk-8u162-linux-x64.tar.gz上傳到該目錄下

cd Downloads

(4) 把JDK文件解壓到/usr/lib/jvm目錄下

sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm

3.確認JDK

(1)進入/usr/lib/jvm,顯示目錄內容列表

cd /usr/lib/jvm
ls

出現jdk1.8.0_162則成功

4.設置環境變量

(1)進入test用戶的主目錄,打開了test用戶的環境變量配置文件

cd ~
vim ~/.bashrc

(2)在開頭添加以下配置信息並保存退出

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

(3)使配置立即生效

source ~/.bashrc

5.安裝確認

查看版本信息

java -version

如果能夠在屏幕上返回如下信息,則說明安裝成功:

java version "1.8.0_162"
Java(TM) SE Runtime Environment (build 1.8.0_162-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.162-b12, mixed mode)

安裝Hadoop

1.更新apt

sudo apt-get update

2.安裝SSH和配置SSH無密碼登陸

(1)安裝 SSH server

sudo apt-get install openssh-server

(2)登陸本機

ssh localhost

(3)退出剛纔的 ssh localhost

exit

(4)若沒有該目錄,請先執行一次ssh localhost

cd ~/.ssh/

(5)會有提示,都按回車即可

ssh-keygen -t rsa

(6)加入授權

cat ./id_rsa.pub >> ./authorized_keys

(7)此時SSH就可以無密碼登錄了

ssh localhost

3.檢查hostname配置文件

打開hosts文件

sudo vim /etc/hosts

以下是正確的配置:

192.168.1.106  iZbp11gznj7n38xkztu64dZ
127.0.0.1       localhost
# The following lines are desirable for IPv6 capable hosts
::1     localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

“私有IP Ubuntu主機名”
“127.0.0.1 localhost”
其他幾行基本都一樣的,看一看這兩行有沒有問題。(基本是不用改的)

4.安裝Hadoop

Hadoop的安裝壓縮包先用FileZilla傳到Downloads的文件夾下

(1)進入test用戶的主目錄

cd ~

(2)解壓到/usr/local中

sudo tar -zxf ~/Downloads/hadoop-2.7.1.tar.gz -C /usr/local

(3)進入/usr/local/,將文件夾名改爲hadoop

cd /usr/local/
sudo mv ./hadoop-2.7.1/ ./hadoop

(4)修改文件權限

sudo chown -R test:123 ./hadoop

5.安裝確認

(1)進入/usr/local/hadoop,查看版本

cd /usr/local/hadoop
./bin/hadoop version

安裝成功則會顯示Hadoop 2.7.1

6.Hadoop僞分佈式配置

(1)打開core-site.xml文件

vim /usr/local/hadoop/etc/hadoop/core-site.xml

原內容:

<configuration>
</configuration>

修改爲:(括號及其內容記得替換)

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://(私有IP):9000</value>
    </property>
</configuration>

(2)同樣修改hdfs-site.xml:

vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

修改爲:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

(3)進入/usr/local/hadoop,執行NameNode 的格式化:

cd /usr/local/hadoop
./bin/hdfs namenode -format 

出現Exitting with status 0提示則正確,如果出現Exitting with status 1也不要着急,回去往上看看java的異常,去全網搜搜基本都能解決的

(4)在hadoop文件夾下,開啓 NameNode 和 DataNode 守護進程:

cd /usr/local/hadoop
./sbin/start-dfs.sh

若出現SSH提示,輸入yes即可

(5)查詢進程

jps

出現以下內容則成功

21923 Jps
21592 DataNode
21417 NameNode
21806 SecondaryNameNode

7.停止Hadoop

cd /usr/local/hadoop
./sbin/stop-dfs.sh

後記

環境算是搭建完成了,中間不知道錯了多少次,通過這次搭建提升了不少解決Error的能力,有時間去嘗試搭建真正的分佈式。

參考文章

廈門大學的林子雨老師寫過一系列大數據環境搭建的博客教程,可以去看看他的博客,寫得很詳細。
1.在阿里雲中搭建大數據實驗環境
2.爲Ubuntu系統添加新的普通用戶
3.使用Putty軟件實現SSH登錄到Ubuntu系統
4.使用FTP軟件向ECS實例中的Ubuntu系統上傳和下載文件
5.在ECS實例的Ubuntu系統中安裝Java
6.在ECS實例的Ubuntu系統中安裝Hadoop
7.搜索了N篇解決Bug的文章,這裏就不列出了,實在太多了。。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章