1.參見網址:
http://spark.apache.org/docs/latest/spark-standalone.html
2.對自己的服務器做一個規劃
3.準備工作
網絡
免密鑰
把spark的包四臺電腦都複製一份
4.啓動主服務器(haodoop102)
sbin/start-master.sh
會產生log日誌 – 要看日誌
5.查看網頁
6.啓動小弟(在想當小弟的服務器上執行)
# 參數是大哥的Url
sbin/start-slave.sh spark://node7-2:7077
7.推薦的配置方法
要準備一個conf/slaves;寫的全部是小弟(複製conf/slaves.template爲conf/slaves)
hadoop103
hadoop104
配置文件:(複製conf/spark-env.sh.template爲spark-env.sh)
先停止服務器
sbin/stop-all.sh
再開啓服務即可
sbin/start-all.sh