部分內容來自於博客;http://blog.csdn.net/huangcao5674/article/details/7801724 (鏈接1)謝謝原作者!
Hadoop配置主要有三部分內容:
(1)Ubuntu安裝
(2)JDK配置
(3)SSH配置
(4)Hadoop配置
下面主要講一些容易犯錯的地方:
1、Ubuntu安裝
可以下載ubuntu-14.04-desktop-i386.iso文件,百度即可,很多下載資源。可以安裝雙系統,也可以通過Vmware虛擬機來實現Ubuntu(通過虛擬機,效果也很棒)。
2、JDK配置
推薦下載:jdk-7u7-linux-i586.tar.gz,百度即可。JDK配置方法,可以參考:http://www.cnblogs.com/cloudwind/archive/2012/10/19/2731263.html,此處需要注意的問題,就是配置環境變量的位置,有的只是配置在了當前用戶下面。建議按照鏈接網頁中的方法配置。
3、SSH配置
按照 鏈接1 中的方式配置SSH就可以,首先安裝一下openssh-server。
需要注意的問題:
(1) 可能會遇到防火牆問題,關閉防火牆命令:ufw disable,刪除防火牆:apt-get remove iptables
4、Hadoop配置
對其中的幾個配置點進行簡單的解釋:
(1)hadoop-env.sh 環境變量設置 因爲hadoop是由java編寫的,所以配置好JAVA_HOME
(2)core-site.xml 核心配置文件 配置hdfs的訪問路徑以及端口
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
(3)hdfs-site.xml 配置hdfs,設置備份方式
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
(4)mapred-site.xml 配置JobTracker的地址以及端口
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
需要注意的幾點問題:
(1)權限問題,運行hadoop namenode -format命令等時,可能無權操作相關文件夾下的文件,此時要修改文件夾的權限。
可以參考:http://www.cnblogs.com/avril/archive/2010/03/23/1692809.html
chown -R 用戶組(或用戶名) 文件夾名 ---修改某文件夾下所有文件的擁有者
(2)可以查看hadoop的運行情況:
http://localhost:50030 MapReduce
http://localhost:50070 HDFS
(3) 連接1 中爲了方便操作hadoop,新創建了hadoop用戶,這個也是可以參考的,非常不錯。