Hadoop與Spark異同

 

Hadoop與Spark異同主要有以下10點:

1、性能當數據大小適於讀入內存,尤其是在專用集羣上時,Spark 表現更好;Hadoop MapReduce 適用於那些數據不能全部讀入內存的情況,同時它還可以與其它服務同時運行。

2、使用難度:Spark 更易於編程,同時也包含交互式模式;Hadoop MapReduce 不易編程但是現有的很多工具使其更易於使用。

3、成本:根據基準要求, Spark 更加合算, 儘管人工成本會很高。依靠着更多熟練的技術人員和 Hadoop 即服務的供給, Hadoop MapReduce 可能更便宜。

4、兼容性:Spark 和 Hadoop MapReduce 具有相同的數據類型和數據源的兼容性。

5、容Spark(RDD) 和 Hadoop MapReduce(複製) 都有着較好的容錯能力,但是 Hadoop MapReduce 要稍微更好一點。

6、安全性Spark 的安全機制仍處在發展期。 Hadoop MapReduce 擁有更多安全控制機制和項目。

7、解決問題的層面不一樣:

       首先,Hadoop和Apache Spark兩者都是大數據框架,但是各自存在的目的不盡相同。

        Hadoop (分佈式存儲數據HDFS、處理數據MapReduce) 實質上更多是一個分佈式數據基礎設施:它將巨大的數據集分派到一個由普通計算機組成的集羣中的多個節點進行存儲,意味着您不需要購買和維護昂貴的服務器硬件。同時,Hadoop還會索引和跟蹤這些數據,讓大數據處理和分析效率達到前所未有的高度。

        Spark (處理分佈式數據),則是那麼一個專門用來對那些分佈式存儲的大數據進行處理的工具,它並不會進行分佈式數據的存儲。

8、兩者可合可分:

       Hadoop除了提供爲大家所共識的HDFS分佈式數據存儲功能之外,還提供了叫做MapReduce的數據處理功能。所以這裏我們完全可以拋開Spark,使用Hadoop自身的MapReduce來完成數據的處理

       相反,Spark也不是非要依附在Hadoop身上才能生存。但如上所述,畢竟Spark沒有提供文件管理系統,所以,它必須和其他的分佈式文件系統進行集成才能運作。這裏我們可以選擇Hadoop的HDFS,也可以選擇其他的基於雲的數據系統平臺。但Spark默認來說還是被用在Hadoop上面的,畢竟,大家都認爲它們的結合是最好的

       以下是從網上摘錄的對MapReduce的最簡潔明瞭的解析:我們要數圖書館中的所有書。你數1號書架,我數2號書架。這就是“Map”。我們人越多,數書就更快。   現在我們到一起,把所有人的統計數加在一起。這就是“Reduce”

9、Spark數據處理速度秒殺MapReduce:

       Spark因爲其處理數據的方式不一樣,會比MapReduce快上很多。MapReduce是分步對數據進行處理的: ”從集羣中讀取數據,進行一次處理,將結果寫到集羣,從集羣中讀取更新後的數據,進行下一次的處理,將結果寫到集羣,等等…“ Booz Allen Hamilton的數據科學家Kirk Borne如此解析。

      反觀Spark,它會在內存中以接近“實時”的時間完成所有的數據分析:“從集羣中讀取數據,完成所有必須的分析處理,將結果寫回集羣,完成,” Born說道。Spark的批處理速度比MapReduce快近10倍(這句錯了)內存中的數據分析速度則快近100倍。

      如果需要處理的數據和結果需求大部分情況下是靜態的,且你也有耐心等待批處理的完成的話,MapReduce的處理方式也是完全可以接受的。

      但如果你需要對流數據進行分析,比如那些來自於工廠的傳感器收集回來的數據,又或者說你的應用是需要多重數據處理的,那麼你也許更應該使用Spark進行處理。

      大部分機器學習算法都是需要多重數據處理的。此外,通常會用到Spark的應用場景有以下方面:實時的市場活動,在線產品推薦,網絡安全分析,機器日記監控等。

10、災難恢復:

      兩者的災難恢復方式迥異,但是都很不錯。因爲Hadoop將每次處理後的數據都寫入到磁盤上,所以其天生就能很有彈性的對系統錯誤進行處理。

      Spark的數據對象存儲在分佈於數據集羣中的叫做彈性分佈式數據集(RDD: Resilient Distributed Dataset)中。“這些數據對象既可以放在內存,也可以放在磁盤,所以RDD同樣也可以提供完整的災難恢復功能,”Borne指出。

 

總結

        Spark 是大數據領域冉冉升起的新星,但是 Hadoop MapReduce 仍有着較廣的應用領域。

  在內存中進行數據處理使得 Spark 具有較好的性能表現,也比較高效合算。它兼容所有 Hadoop 的數據源和文件格式, 支持多種語言的簡單易用的 API 也使人們更快速的可以上手。 Spark 甚至實現了圖處理和機器學習工具。

        Hadoop MapReduce 是一個更加成熟的平臺,爲進行批處理而生。當遇到確實非常大的數據以至於無法完全讀入內存,又或是依靠着大量對該平臺有經驗的技術人員,它可能會比 Spark 更加合算。 而且圍繞 Hadoop MapReduce 的衍生系統正在依靠着更多的支撐項目、工具和雲服務而更加壯大。

  但是即使看上去 Spark 像是最終的贏家,問題在於我們永遠不會單獨使用它—我們需要 HDFS 存儲數據,或許還會需要用到 HBase,Hive,Pig,Impala 或其他 Hadoop 項目。這意味着在處理非常大的數據的時候,Spark 仍然需要同 Hadoop 和 MapReduce 共同運行。

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章