配置hadoop集羣二

hadoop環境搭建初始篇基本就能夠滿足集羣的搭建。本篇主要是對環境搭建更好的細化和問題的分析。

第一次啓動Hadoop,必須先格式化namenode

#cd $HADOOP_HOME /bin

#hadoop namenode –format

如果出現錯誤,可以試着嘗試一下刪除tmp臨時目錄。


啓動Hadoop

#cd $HADOOP_HOME/bin

#./start-all.sh

如果啓動過程,報錯safemode相關的Exception

執行命令

# hadoop dfsadmin -safemode leave

然後再啓動Hadoop



終端查看集羣狀態:

#hadoop dfsadmin -report    



增加一個節點:

1.修改新節點的/etc/hosts,增加namenode的主機名與IP
2.修改namenode的配置文件conf/slaves

添加新增節點的ip或host

3.在新節點的機器上,啓動服務

#cd $HADOOP_HOME/bin

#./hadoop-daemon.sh start datanode

#./hadoop-daemon.sh start tasktracker

4.在NameNode節點執行

# hadoop  dfsadmin  -refreshNodes

5.均衡block

在新節點上執行(如果是增加多個節點,只需在一個新節點)

#cd $HADOOP_HOME/bin

# ./start-balancer.sh 

注意事項

1.必須確保slavefirewall已關閉;

2. 確保新的slaveip已經添加到master及其他slaves/etc/hosts中,反之也要將master及其他slaveip添加到新的slave/etc/hosts



刪除節點:

在hadoop0上修改conf/hdfs-site.xml文件

 <property>

   <name>dfs.hosts.exclude</name>

  <value>/usr/local/hadoop/conf/excludes</value>

 </property>

l確定要下架的機器

dfs.hosts.exclude定義的文件內容爲,每個需要下線的機器,一行一個。

l強制重新加載配置

#hadoop dfsadmin  -refreshNodes

關閉節點

hadoop dfsadmin -report

可以查看到現在集羣上連接的節點

正在執行Decommission,會顯示:

Decommission Status : Decommission in progress   

執行完畢後,會顯示:

Decommission Status : Decommissioned

再次編輯excludes文件

一旦完成了機器下架,它們就可以從excludes文件移除了

登錄要下架的機器,會發現DataNode進程沒有了,但是TaskTracker依然存在,需要手工處理一下



hadoop管理員常用的命令:

hadoop job –list  #列出正在運行的Job

hadoop job –kill <job_id> #kill job

hadoop fsck / #檢查HDFS塊狀態,是否損壞

hadoop fsck / -delete #檢查HDFS塊狀態,刪除損壞塊

hadoop dfsadmin –report #檢查HDFS狀態,包括DN信息

hadoop dfsadmin –safemode enter | leave

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章