搭建Hadoop時候遇到的一些問題以及解決方法



首先我的OS是ubuntu 12.10.

1、記住最好先裝Open jdk。要是先裝了Sun的其實也行,就是後面配置的時候優先級要設置的高一點,設置個3000神馬的,這樣才能識別爲自動項。

2、我很沒出息的下載的是.deb包,而不是源代碼。因爲簡單使用

dpkg -i hadoop1.0.4.deb

就可以完成安裝。當然安裝之前的準備工作還是要做的。這邊我要提醒大家注意的就是自己在裝ubuntu系統的時候要注意home目錄的安裝權限,否則和我一樣二逼兮兮到最後沒辦法創建新的用戶,當然這個問題我還沒有解決。估計只能重裝系統了。

具體可以參考http://www.cnblogs.com/tippoint/archive/2012/10/23/2735532.html 或者Hadoop實戰那本書

3、使用dpkg安裝之後有幾個路徑需要記住,一個是


這個裏面都是Hadoop相關的配置文件。所謂的僞分佈式配置啦之類的東西都在這裏

記住,一定要重新設置該文件夾的owner,如果owner不是hadoop的話

chown -R hadoop:hadoop /etc/hadoop
第二個文件目錄是這個


這個就是examples還有一些lib啊之類所在

也要Chown的!!!!!

4、若是使用

hadoop fs -ls
的時候報錯,類似與無法鏈接local host的那種,首先檢查是不是namenode配置的問題。如果不是那就是因爲默認的hadoop會把一些臨時文件放在/tmp文件夾下面。這樣每次重啓之後namenode相關的信息就會丟失,這個時候就會導致無法鏈接的問題。

我們需要重新設置tmp目錄。在你喜歡的地方建立haoop_tmp文件夾存放臨時文件

然後在/etc/hadoop/coresite.xml中

<property>
   <name>hadoop.tmp.dir</name>
   <value>~/hadoop_tmp</value>
  <description>A base for other temporary directories</description>
  </property>
一定要記得給這個剛剛建立額hadoop_tmp也要chown!!!!!!不然後面會一直有permission denied的問題!!!!!!!!!!!!!!
5、最後,在使用wordcont的時候。上傳本地文件到hdfs上的命令如下

hadoop fs -put [src] [dest]
獲得Haoop上面的文件的命令是

hadoop fs -get [src] [dest]

要是還有什麼其他的問題下次接着記下來

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章