Spark+Hadoop集羣搭建:(零)簡介與說明

Spark+Hadoop集羣搭建:(零)簡介與說明


注:未完成,待修改

1 背景

2 主要內容

利用虛擬機實現Linux操作系統上的Spark+Hadoop大數據集羣,並進行一些簡單的實驗。主要包括
1 單節點Hadoop環境搭建
2 多節點(集羣)Hadoop環境搭建
3 Spark安裝及pyspark的使用
4 Spark Standalone Cluster的使用

3 使用工具版本說明

jdk 8
hadoop 2.7.7
sprak 2.4.0
scala 2.11

4 文章列表

Spark+Hadoop集羣搭建:(零)簡介與說明
Spark+Hadoop集羣搭建:(一)單一節點上搭建Hadoop環境
Spark+Hadoop集羣搭建:(二)集羣節點上搭建Hadoop環境
Spark+Hadoop集羣搭建:(三)在Hadoop集羣上安裝Spark

5 參考文獻

1 Python+Spark 2.0+Hadoop機器學習與大數據實戰. 林大貴. 清華大學出版社
2 Spark快速大數據分析, Holden Karau, Andy Konwinski等, 人民郵電出版社
3 圖解Spark核心技術與案例實戰, 郭景瞻, 電子工業出版社
4 普通用戶SSH無密碼互信建立 出現的問題以及解決辦法https://blog.csdn.net/JLongSL/article/details/78157112

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章