1、 在Apache的官網下載Hadoop的比較穩定的版本,我現在下的是Hadoop0.20.203.0.
2、 配置java環境。1.6版本以上。
3、 解壓Hadoop,設置conf下的hadoop-env.sh,設置裏面的JAVA_HOME=/usr/lib/jvm/java-6-sun.
4、 export HADOOP_INSTALL=/home/guoguo/hadoop/hadoop-0.20.203.0
5、
export
PATH=$PATH:$HADOOP_INSTALL/bin (ps:也可以將hadoop的環境變量添加到/etc/profile下,添加後source下就行了)
6、 檢查運行 hadoop version。
7、 如果有版本信息說明安裝完成。
8、 設置SSH無密碼驗證。
a) ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
b) cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
9、 分別配置core-site.xml、hdf-site.xml、mapred-site.xml。
a) conf/core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
b) conf/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
c) conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
10、配置masters和slaves文件。因爲是僞分佈模式,所以兩個都用127.0.0.1
11、編輯主機名 /etc/hosts加入
a) 127.0.0.1 master
b) 127.0.0.1 slave
12、啓動hadoop(hadoop命令在hadoop目錄的bin目錄下)
a) hadoop namenode –format
b) start-all.sh
13、 在WEB下查看Hadoop的工作情況