基於Hadoop大數據分析應用場景與實戰

一、Hadoop的應用業務分析

大數據是不能用傳統的計算技術處理的大型數據集的集合。它不是一個單一的技術或工具,而是涉及的業務和技術的許多領域。

目前主流的三大分佈式計算系統分別爲:Hadoop、Spark和Strom:

Hadoop當前大數據管理標準之一,運用在當前很多商業應用系統。可以輕鬆地集成結構化、半結構化甚至非結構化數據集。

Spark採用了內存計算。從多迭代批處理出發,允許將數據載入內存作反覆查詢,此外還融合數據倉庫,流處理和圖形計算等多種計算範式。Spark構建在HDFS上,能與Hadoop很好的結合。它的RDD是一個很大的特點。

Storm用於處理高速、大型數據流的分佈式實時計算系統。爲Hadoop添加了可靠的實時數據處理功能

Hadoop是使用Java編寫,允許分佈在集羣,使用簡單的編程模型的計算機大型數據集處理的Apache的開源框架。 Hadoop框架應用工程提供跨計算機集羣的分佈式存儲和計算的環境。 Hadoop是專爲從單一服務器到上千臺機器擴展,每個機器都可以提供本地計算和存儲。

Hadoop適用於海量數據、離線數據和負責數據,應用場景如下:

場景1:數據分析,如京東海量日誌分析,京東商品推薦,京東用戶行爲分析

場景2:離線計算,(異構計算+分佈式計算)天文計算

場景3:海量數據存儲,如京東的存儲集羣

基於京麥業務三個實用場景

京麥用戶分析

京麥流量分析

京麥訂單分析

都屬於離線數據,決定採用Hadoop作爲京麥數據類產品的數據計算引擎,後續會根據業務的發展,會增加Storm等流式計算的計算引擎,下圖是京麥的北斗系統架構圖:

基於Hadoop大數據分析應用場景與實戰

(圖一)京東北斗系統

二、淺談Hadoop的基本原理

Hadoop分佈式處理框架核心設計

HDFS :(Hadoop Distributed File System)分佈式文件系統

MapReduce: 是一種計算模型及軟件架構

2.1 HDFS

HDFS(Hadoop File System),是Hadoop的分佈式文件存儲系統。

將大文件分解爲多個Block,每個Block保存多個副本。提供容錯機制,副本丟失或者宕機時自動恢復。默認每個Block保存3個副本,64M爲1個Block。將Block按照key-value映射到內存當中。

基於Hadoop大數據分析應用場景與實戰

(圖二)數據寫入HDFS

基於Hadoop大數據分析應用場景與實戰

(圖三)HDFS讀取數據

2.2 MapReduce

MapReduce是一個編程模型,封裝了並行計算、容錯、數據分佈、負載均衡等細節問題。MapReduce實現最開始是映射map,將操作映射到集合中的每個文檔,然後按照產生的鍵進行分組,並將產生的鍵值組成列表放到對應的鍵中。化簡(reduce)則是把列表中的值化簡成一個單值,這個值被返回,然後再次進行鍵分組,直到每個鍵的列表只有一個值爲止。這樣做的好處是可以在任務被分解後,可以通過大量機器進行並行計算,減少整個操作的時間。但如果你要我再通俗點介紹,那麼,說白了,Mapreduce的原理就是一個分治算法。

算法:

MapReduce計劃分三個階段執行,即映射階段,shuffle階段,並減少階段。

映射階段:映射或映射器的工作是處理輸入數據。一般輸入數據是在文件或目錄的形式,並且被存儲在Hadoop的文件系統(HDFS)。輸入文件被傳遞到由線映射器功能線路。映射器處理該數據,並創建數據的若干小塊。

減少階段:這個階段是:Shuffle階段和Reduce階段的組合。減速器的工作是處理該來自映射器中的數據。處理之後,它產生一組新的輸出,這將被存儲在HDFS。

基於Hadoop大數據分析應用場景與實戰

(圖四)MapReduce

2.3 HIVE

hive是基於Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射爲一張數據庫表,並提供完整的sql查詢功能,可以將sql語句轉換爲MapReduce任務進行運行,這套SQL 簡稱HQL。使不熟悉mapreduce 的用戶很方便的利用SQL 語言查詢,彙總,分析數據。而mapreduce開發人員可以把己寫的mapper 和reducer 作爲插件來支持Hive 做更復雜的數據分析。
基於Hadoop大數據分析應用場景與實戰

(圖五)HIVE體系架構圖

由上圖可知,hadoop和mapreduce是hive架構的根基。Hive架構包括如下組件:CLI(command line interface)、JDBC/ODBC、Thrift Server、WEB GUI、metastore和Driver(Complier、Optimizer和Executor)。

三、Hadoop走過來的那些坑

進行HIVE操作的時候,HQL寫的不當,容易造成數據傾斜,大致分爲這麼幾類:空值數據傾斜、不同數據類型關聯產生數據傾斜和Join的數據偏斜。只有理解了Hadoop的原理,熟練使用HQL,就會避免數據傾斜,提高查詢效率。
歡迎工作一到五年的Java工程師朋友們加入Java架構開發: 855835163
羣內提供免費的Java架構學習資料(裏面有高可用、高併發、高性能及分佈式、Jvm性能調優、Spring源碼,MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx等多個知識點的架構資料)合理利用自己每一分每一秒的時間來學習提升自己,不要再用"沒有時間“來掩飾自己思想上的懶惰!趁年輕,使勁拼,給未來的自己一個交代!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章