spark集羣--standlone

1.參見網址:
http://spark.apache.org/docs/latest/spark-standalone.html
2.對自己的服務器做一個規劃
在這裏插入圖片描述
3.準備工作
網絡
免密鑰
把spark的包四臺電腦都複製一份

4.啓動主服務器(haodoop102)

sbin/start-master.sh

在這裏插入圖片描述
會產生log日誌 – 要看日誌
在這裏插入圖片描述
5.查看網頁
在這裏插入圖片描述
6.啓動小弟(在想當小弟的服務器上執行)

# 參數是大哥的Url
sbin/start-slave.sh spark://node7-2:7077

在這裏插入圖片描述
在這裏插入圖片描述
7.推薦的配置方法
要準備一個conf/slaves;寫的全部是小弟(複製conf/slaves.template爲conf/slaves)

hadoop103
hadoop104

配置文件:(複製conf/spark-env.sh.template爲spark-env.sh)
在這裏插入圖片描述
先停止服務器

sbin/stop-all.sh

再開啓服務即可

sbin/start-all.sh
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章