hive 虛擬機安裝Hadoop和hive

關注微信公共號:小程在線

關注CSDN博客:程志偉的博客

我在本機上已全部實現,下面是在我自己電腦上的截圖

 

1.虛擬機鏡像下載:

 

要是自己安裝linux後再搭建環境可是相當麻煩的,所以我們要找別人已經配好的虛擬機。功夫不負有心人,找了很多資源之後終於找到了好用且免費的虛擬機鏡像。

【鏡像下載地址】https://pan.baidu.com/s/1kUWaNWz#list/path=%2F(需要安裝百度雲盤客戶端,文件大小是6GB)


【鏡像說明】
此鏡像是使用VirtualBox虛擬機軟件導出來的,裏面包含了Ubuntu系統和全套大數據軟件。遇到需要輸入密碼的地方,密碼都是hadoop。
安裝的系統和軟件如下(所有軟件都安裝在/usr/local/目錄下):
Ubuntu16.04
Hadoop2.7.1
Spark2.1.0
HBase1.1.5
JDK1.8
Scala2.11.8
MySQL
Kafka_2.11-0.10.2.0
Flume1.7.0
sbt
Maven3.3.9
MongoDB3.2.17
Hive2.1.0
Scala IDE(包含Eclipse4.7.0和Maven、Scala、sbt插件)

 

 

2.安裝虛擬機軟件(VirtualBox或VMWare)

我用的是VMWare,具體下載安裝隨便一搜就有,在此不再贅述。

3.加載虛擬機鏡像

打開VMWare,文件->打開,選擇第一步下載的鏡像,然後等待安裝就好了。

4.打開虛擬機

安裝好之後,直接啓動虛擬機,選擇hadoop賬戶,密碼hadoop(這個虛擬機裏涉及到密碼的地方都是hadoop)。

5.啓動hadoop

打開終端,進入hadoop安裝目錄,啓動hadoop。具體命令是:

  1. cd /usr/local/hadoop

  2. sbin/start-dfs.sh

 

然後就會看到以下信息:

 

 

就說明已經啓動成功啦。可以看出,在localhost啓動了一個namenode和datanode,在0.0.0.0啓動了一個namenode。這是在一個電腦上模擬hadoop集羣環境,有這些就足夠用啦。

6.簡單配置一下

爲了使用方便,可以直接用hadoop命令,我們需要配置環境變量。

編輯.bashrc文件。命令是:

vi ~/.bashrc

添加以下幾句命令:

在文件開始處添加:export HADOOP_HOME=/usr/local/hadoopexport PATH=$PATH:$HADOOP_HOME/bin

#在後面alias命令後添加:alias start_hadoop='/usr/local/hadoop/sbin/start-dfs.sh'alias stop_hadoop='/usr/local/hadoop/sbin/stop-dfs.sh'

添加好之後,保存退出,執行下面的語句進行應用。

source ~/.bashrc

然後直接執行hadoop就會出現以下信息:

 

我們可以看一下hdfs文件系統中有什麼,執行

hadoop fs -ls /

可以看到有這 hbase tmp user 三個文件夾。

上面添加的兩個alias命令是爲了,直接執行 start_hadoop 或者 stop_hadoop 就可以打開/關閉hadoop,輸入 stop_hadoop 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章