centos下,安裝spark+hadoop+scala,
說下我遇到的問題和注意事項
1、hadoop的文件夾及用戶問題
假定是3臺部署,1臺master,2臺slave,在master,slave1,slave2上均建立hadoop用戶,
然後用命令修改所有者
sudo chown -hR hadoop /srv/hadoop
2、低級錯誤,端口號,主要是全角的冒號::導致的
hdfs://master:9000和hdfs://master:9000
因爲複製的電子書的配置文件
3、端口號,no route to host
這是個組名的問題難題,雖然官方有說明,但一點解決不了問題
還是要自己解決
一個是關閉防火牆,另外一個是查看端口telnet ip 端口號,以及