關注微信公共號:小程在線
關注CSDN博客:程志偉的博客
我在本機上已全部實現,下面是在我自己電腦上的截圖
1.虛擬機鏡像下載:
要是自己安裝linux後再搭建環境可是相當麻煩的,所以我們要找別人已經配好的虛擬機。功夫不負有心人,找了很多資源之後終於找到了好用且免費的虛擬機鏡像。
【鏡像下載地址】https://pan.baidu.com/s/1kUWaNWz#list/path=%2F(需要安裝百度雲盤客戶端,文件大小是6GB)
【鏡像說明】
此鏡像是使用VirtualBox虛擬機軟件導出來的,裏面包含了Ubuntu系統和全套大數據軟件。遇到需要輸入密碼的地方,密碼都是hadoop。
安裝的系統和軟件如下(所有軟件都安裝在/usr/local/目錄下):
Ubuntu16.04
Hadoop2.7.1
Spark2.1.0
HBase1.1.5
JDK1.8
Scala2.11.8
MySQL
Kafka_2.11-0.10.2.0
Flume1.7.0
sbt
Maven3.3.9
MongoDB3.2.17
Hive2.1.0
Scala IDE(包含Eclipse4.7.0和Maven、Scala、sbt插件)
2.安裝虛擬機軟件(VirtualBox或VMWare)
我用的是VMWare,具體下載安裝隨便一搜就有,在此不再贅述。
3.加載虛擬機鏡像
打開VMWare,文件->打開,選擇第一步下載的鏡像,然後等待安裝就好了。
4.打開虛擬機
安裝好之後,直接啓動虛擬機,選擇hadoop賬戶,密碼hadoop(這個虛擬機裏涉及到密碼的地方都是hadoop)。
5.啓動hadoop
打開終端,進入hadoop安裝目錄,啓動hadoop。具體命令是:
-
cd /usr/local/hadoop
-
sbin/start-dfs.sh
然後就會看到以下信息:
就說明已經啓動成功啦。可以看出,在localhost啓動了一個namenode和datanode,在0.0.0.0啓動了一個namenode。這是在一個電腦上模擬hadoop集羣環境,有這些就足夠用啦。
6.簡單配置一下
爲了使用方便,可以直接用hadoop命令,我們需要配置環境變量。
編輯.bashrc文件。命令是:
vi ~/.bashrc
添加以下幾句命令:
在文件開始處添加:export HADOOP_HOME=/usr/local/hadoopexport PATH=$PATH:$HADOOP_HOME/bin
#在後面alias命令後添加:alias start_hadoop='/usr/local/hadoop/sbin/start-dfs.sh'alias stop_hadoop='/usr/local/hadoop/sbin/stop-dfs.sh'
添加好之後,保存退出,執行下面的語句進行應用。
source ~/.bashrc
然後直接執行hadoop就會出現以下信息:
我們可以看一下hdfs文件系統中有什麼,執行
hadoop fs -ls /
可以看到有這 hbase tmp user 三個文件夾。
上面添加的兩個alias命令是爲了,直接執行 start_hadoop 或者 stop_hadoop 就可以打開/關閉hadoop,輸入 stop_hadoop