spark安裝筆記(ubuntu16)

強烈推薦:
安裝Hadoop及Spark(Ubuntu 16.04):[url]http://www.cnblogs.com/bovenson/p/5760856.html[/url]


管理頁面:
hadoop:[url]localhost:50070[/url]
yarn:[url]localhost:8088[/url]
spark:[url]localhost:8080[/url]


這裏僅作爲補充:

[size=large][color=blue]1、通過ln命令創建軟連接[/color][/size]
這樣不會剔除所安裝文件的版本信息,方便升級
ln -s hadoop-2.7.3/ hadoop



[size=large][color=blue]2、ssh免密碼登陸[/color][/size]
[list]
[*][b]root用戶[/b]下沒問題。
[*]普通用戶沒成功, 嘗試了多個教程(修改文件夾權限什麼的)
[/list]


[size=large][color=blue]3、教程
[/color][/size]官網的就很不錯:
[url]http://spark.apache.org/docs/latest/quick-start.html[/url]

注意:由於我們集成了hadoop,文件必須先上傳到hadoop的hdfs文件系統
hadoop文件命令參見:[url]http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html[/url]
着重注意 copyFromLocal命令

如果我們將README.md 上傳到hadoop的根目錄,則對應官網教程的創建RDD的命令爲:
val lines=sc.textFile("/README.md")



[size=large][color=blue]4、打包爲jar[/color][/size]
安照官網的sbt教程來的,可以成功,但過程緩慢
sbt安裝:[url]http://www.scala-sbt.org/download.html[/url]

解壓生成的jar包,裏面也就是自己的幾個.class文件而已(eclipse自動編譯好的), 就是普通的帶main class的java 包,應該可以手動打包,,這部分沒嘗試

[b]注意[/b]:官網教程的 spark-submit 那步, 需要先啓動spark服務(運行安裝教程中啓動spark的腳本); 另外我沒指定master參數,不清楚上面教程的安裝模式是什麼
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章