Hadoop環境搭建過程中遇到的問題及解決方法

這篇文章主要介紹了Hadoop環境搭建過程中遇到的問題及解決方法,本文給大家介紹的非常詳細,具有一定的參考借鑑價值,需要的朋友參考下吧

1.啓動hadoop之前,ssh免密登錄slave主機正常,使用命令start-all.sh啓動hadoop時,需要輸入slave主機的密碼,說明ssh文件權限有問題,需要執行以下操作:

1)進入.ssh目錄下查看是否有公鑰私鑰文件authorized_keys、id_rsa、id_rsa.pub

2)如果沒有公鑰私鑰文件,則執行ssh-keygen -t rsa生成祕鑰(master主機和slave主機都需要執行)

3)公鑰私鑰文件生成完成後,執行cat id_rsa.pub >> authorized_keys,將生成的公鑰添加到認證文件中

4)將slave服務器公鑰寫入master服務器authorized_keys文件中

[root@master ~]# ssh-copy-id -i slave01
[root@master ~]# ssh-copy-id -i slave02

5)登錄slave服務器(ssh slave01),看是否需要輸入密碼,如果仍然需要輸入密碼,說明uthorized_keys文件權限有問題,則執行下一步

6)使用ssh -vvv slave01調試命令,進入到slave01調試界面

7)設置authorized_keys文件權限爲600,chmod 600 ~/.ssh/authorized_keys

8)同理,slave01也要同樣進行設置,在master主機的終端中繼續執行步驟6和步驟7中的命令

9)設置完成後在master主機中,登錄slave01和slave02,如果不需要輸入密碼,則配置完成

10)停止hadoop的所有進程:stop-all.sh

11)重新啓動hadoop:start-all.sh

2.啓動hadoop之後,使用jps查看,master服務器中沒有namenode服務,解決方案如下:

1)首先停止hadoop的所有進程:stop-all.sh

2)格式化namenode:hdfs namenode -format

3)重新啓動hadoop:start-all.sh

4)輸入jps查看,可以看到namenode進程

3.啓動hadoop之後,使用jps查看,slave服務器中沒有datanode服務,解決方案如下:

1)首先停止hadoop的所有進程:stop-all.sh

2)進入hadoop安裝目錄下:/software/hadoop中刪除hadoopdate文件夾

3)進入hadoop安裝目錄下:/software/hadoop中的hadoop-2.7.3文件夾中刪除logs文件夾

4)在slave01主機和slave02主機的終端執行步驟2和步驟3,確保步驟2和步驟3的文件夾都刪除乾淨

5)格式化namenode:hdfs namenode -format

6)重新啓動hadoop:start-all.sh

7)在slave01主機和slave02主機的終端輸入jps查看,可以看到datanode進程

總結

以上所述是小編給大家介紹的Hadoop環境搭建過程中遇到的問題及解決方法 ,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回覆大家的。在此也非常感謝大家對神馬文庫網站的支持!
如果你覺得本文對你有幫助,歡迎轉載,煩請註明出處,謝謝!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章