Ubuntu10.10-Hadoop安裝嚮導

 

1.
安裝Ubuntu10.10
wubi安裝不解釋
兩臺:
hostname:master
username:hadoop
password:123456
ipaddress:172.16.8.91/24

hostname:slaveA
username:hadoop
password:123456
ipaddress:172.16.8.92/24

一》 修改/etc/hosts 兩臺都做
172.16.8.91 master
172.16.8.92 slaveA

配置 ssh驗證 安裝不成功時刷新 新立得 包管理器
sudo apt-get install openssh-server //這裏需要網絡連接
ssh-keygen -t rsa -P "" //生成密鑰對
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys //授權本地登錄
拷貝各自的公鑰到個節點之間(這裏我做了雙向驗證)
進到hadoop用戶的.ssh/文件夾下
scp *.pub slaveA:/home/hadoop/.ssh/master.pub 爲了區分我們把 master的公鑰保存到slaveA命名爲 master.pub
scp *.pub master:/home/hadoop/.ssh/slaveA.pub 爲了區分我們把 slaveA的公鑰保存到master命名爲 slaveA.pub 
將拷貝過來的pub文件加至到各自節點的登錄授權文件
cat master.pub >> authorized_keys
cat slaveA.pub >> authorized_keys

二》 安裝JDK 兩臺都做
準備JDK 的安裝包:jdk-6u20-linux-i586.bin

chmod +x jdk-6u20-linux-i586.bin //賦予執行權力
./jdk-6u20-linux-i586.bin  //執行安裝
換切root用戶cp jdk1.6.0_20 /usr/lib //把安裝目錄移到/usr/lib/jdk1.6.0_20
然後ln –s /usr/lib/jdk1.6.0_20/bin/java /usr/bin/java
gedit /etc/profile //用gedit編輯器打開profile文件
在文件最後一行添加JDK的路徑
export JDK_HOME=/usr/lib/jdk1.6.0_20
重啓一次後測試JDK
java -version //安裝成功的情況下當會出現JDK的版本等信息
至此JDK的環境變量設置完成

三》 安裝 hadoop 兩個節點都做
準備hadoop安裝包這裏我準備的是:hadoop-0.20.2.tar.gz

直接放在hadoop用戶目錄下直接解包
tar -zxvf hadoop-0.20.2.tar.gz
修改conf/hadoop-env.sh,設置JAVA_HOME,改爲如下:
export JAVA_HOME=/usr/lib/jdk1.6.0_20

修改配置文件 cd /hadoop-0.20.2/conf
gedit master
添加
master
gedit slaves
添加
master
slaveA //這裏是兩臺測試 master 既做namenode 又做datanode

在所有節點上修改conf/core-site.xml,更改fs.default.name的值爲hdfs://master:9000,具體爲:
 <property> 
    <name>fs.default.name</name> 
    <value>hdfs://master:9000</value> 
</property> 

在所有節點上修改conf/mapred-site.xml,將JobTracker的地址改爲master具體爲:
 <property> 
    <name>mapred.job.tracker</name> 
    <value>hdfs://master:9001</value> 
</property> 

在所有節點上修改conf/hdfs-site.xml,將更改dfs.replication的值,這個參數決定了集羣中一個文件需要保存爲多少個拷貝。其默認值爲3,因本次試驗節點數爲2,故更改爲2。具體爲:
 <property> 
      <name>dfs.replication</name> 
      <value>2</value> 
</property> 

爲了節省時間直接拷貝master上的hadoop安裝包
壓縮爲hadoop-0.20.2.tar.gz包
scp hadoop-0.20.2.tar.gz slaveA:/home/hadoop/

進到slaveA機器
直接解壓gz包
tar -zxvf hadoop-0.20.2.tar.gz

至此hadoop的配置完成

 

————————————————————————————————————————————————————————————————————————以下命令都在bin目錄下執行,進入hadoop安裝目錄~/bin/

一》》
格式化 HDFS //只需在master上運行
./hadoop namenode -format

二》》
啓動和停止集羣
在master節點上啓動HDFS
./start-dfs.sh
在master節點上停止HDFS
./stop-dfs.sh

在master節點上啓動MapReduce
./start-mapred.sh 
在master節點上停止MapReduce
./stop-mapred.sh 

三》》
檢測運行
jps  //查看節點是否正常啓動 需要的話需要在安裝一個包——可以直接在線安裝
sudo apt-get install openjdk-6-jdk

./hadoop dfsadmin -report //查看HDFS系統狀態

四》》
跑 wordcount
1.準備測試文本
sudo echo“I`am the king of the world,My friend thinks” > /tmp/test.txt

2.上傳文本到系統
hadoop dfs -put /tmp/test.txt systemTest
將會在系統創建文件夾 systemTest

3.開始記數
hadoop jar hadoop-mapred-examples0.21.0.jar wordcout systemTest result

4.查看輸出
hadoop dfs -cat result/part-r-00000

————————————————————————————————————————————————————————————————————————


 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章