讓 Hadoop 稱霸至今的框架 --Hadoop Yarn

  作者: 哈爾的數據城堡 / 佘志銘 (本文來自作者投稿)

  在古老的 Hadoop1.0 中,MapReduce 的 JobTracker 負責了太多的工作,包括資源調度,管理衆多的 TaskTracker 等工作。這自然是不合理的,於是 Hadoop 在 1.0 到 2.0 的升級過程中,便將 JobTracker 的資源調度工作獨立了出來,而這一改動,直接讓 Hadoop 成爲大數據中最穩固的那一塊基石。而這個獨立出來的資源管理框架,就是 Yarn 。

  一. Hadoop Yarn 是什麼

  在詳細介紹 Yarn 之前,我們先簡單聊聊 Yarn ,Yarn 的全稱是 Yet Another Resource Negotiator,意思是另一種資源調度器,這種命名和“有間客棧”這種可謂是異曲同工之妙。這裏多說一句,以前 Java 有一個項目編譯工具,叫做 Ant,他的命名也是類似的,叫做 “Another Neat Tool”的縮寫,翻譯過來是”另一種整理工具“。

  既然都叫做資源調度器了,那麼自然,它的功能也是負責資源管理和調度的,接下來,我們就深入到 Yarn 這個東西內部一探究竟吧。

  二. Yarn 架構

  我們主要圍繞上面這張圖展開,不過在介紹圖中內容時,需要先了解 Yarn 中的 Container 的概念,然後會介紹圖中一個個組件,最後看看提交一個程序的流程。

  2.1 Container

  容器(Container)這個東西是 Yarn 對資源做的一層抽象。就像我們平時開發過程中,經常需要對底層一些東西進行封裝,只提供給上層一個調用接口一樣,Yarn 對資源的管理也是用到了這種思想。

  如上所示,Yarn 將CPU核數,內存這些計算資源都封裝成爲一個個的容器(Container)。需要注意兩點:

  1. 容器由 NodeManager 啓動和管理,並被它所監控。

  2. 容器被 ResourceManager 進行調度。

  NodeManager 和 ResourceManager 這兩個組件會在下面講到。

  2.2 三個主要組件

  再看最上面的圖,我們能直觀發現的兩個主要的組件是 ResourceManager 和 NodeManager ,但其實還有一個 ApplicationMaster 在圖中沒有直觀顯示。我們分別來看這三個組件。

  ResourceManager

  我們先來說說上圖中最中央的那個 ResourceManager(RM)。從名字上我們就能知道這個組件是負責資源管理的,整個系統有且只有一個 RM ,來負責資源的調度。它也包含了兩個主要的組件:定時調用器(Scheduler)以及應用管理器(ApplicationManager)。

  1. 定時調度器(Scheduler):從本質上來說,定時調度器就是一種策略,或者說一種算法。當 Client 提交一個任務的時候,它會根據所需要的資源以及當前集羣的資源狀況進行分配。注意,它只負責嚮應用程序分配資源,並不做監控以及應用程序的狀態跟蹤。

  2. 應用管理器(ApplicationManager):同樣,聽名字就能大概知道它是幹嘛的。應用管理器就是負責管理 Client 用戶提交的應用。上面不是說到定時調度器(Scheduler)不對用戶提交的程序監控嘛,其實啊,監控應用的工作正是由應用管理器(ApplicationManager)完成的。

  ApplicationMaster

  每當 Client 提交一個 Application 時候,就會新建一個 ApplicationMaster 。由這個 ApplicationMaster 去與 ResourceManager 申請容器資源,獲得資源後會將要運行的程序發送到容器上啓動,然後進行分佈式計算。

  這裏可能有些難以理解,爲什麼是把運行程序發送到容器上去運行?如果以傳統的思路來看,是程序運行着不動,然後數據進進出出不停流轉。但當數據量大的時候就沒法這麼玩了,因爲海量數據移動成本太大,時間太長。但是中國有一句老話山不過來,我就過去。大數據分佈式計算就是這種思想,既然大數據難以移動,那我就把容易移動的應用程序發佈到各個節點進行計算唄,這就是大數據分佈式計算的思路。

  NodeManager

  NodeManager 是 ResourceManager 在每臺機器的上代理,負責容器的管理,並監控他們的資源使用情況(cpu,內存,磁盤及網絡等),以及向 ResourceManager/Scheduler 提供這些資源使用報告。

  三. 提交一個 Application 到 Yarn 的流程

  這張圖簡單地標明瞭提交一個程序所經歷的流程,接下來我們來具體說說每一步的過程。

  1. Client 向 Yarn 提交 Application,這裏我們假設是一個 MapReduce 作業。

  2. ResourceManager 向 NodeManager 通信,爲該 Application 分配第一個容器。並在這個容器中運行這個應用程序對應的 ApplicationMaster。

  3. ApplicationMaster 啓動以後,對 作業(也就是 Application) 進行拆分,拆分 task 出來,這些 task 可以運行在一個或多個容器中。然後向 ResourceManager 申請要運行程序的容器,並定時向 ResourceManager 發送心跳。

  4. 申請到容器後,ApplicationMaster 會去和容器對應的 NodeManager 通信,而後將作業分發到對應的 NodeManager 中的容器去運行,這裏會將拆分後的 MapReduce 進行分發,對應容器中運行的可能是 Map 任務,也可能是 Reduce 任務。

  5. 容器中運行的任務會向 ApplicationMaster 發送心跳,彙報自身情況。當程序運行完成後, ApplicationMaster 再向 ResourceManager 註銷並釋放容器資源。

  以上就是一個作業的大體運行流程。

  爲什麼會有 Yarn ?

  上面說了這麼多,最後我們來聊聊爲什麼會有 Yarn 吧。

  直接的原因呢,就是因爲 Hadoop1.0 中架構的缺陷,在 MapReduce 中,jobTracker 擔負起了太多的責任了,接收任務是它,資源調度是它,監控 TaskTracker 運行情況還是它。這樣實現的好處是比較簡單,但相對的,就容易出現一些問題,比如常見的單點故障問題。

  要解決這些問題,只能將 jobTracker 進行拆分,將其中部分功能拆解出來。彼時業內已經有了一部分的資源管理框架,比如 mesos,於是照着這個思路,就開發出了 Yarn。這裏多說個冷知識,其實 Spark 早期是爲了推廣 mesos 而產生的,這也是它名字的由來,不過後來反正是 Spark 火起來了。。。

  閒話不多說,其實 Hadoop 能有今天這個地位,Yarn 可以說是功不可沒。因爲有了 Yarn ,更多計算框架可以接入到 Hdfs 中,而不單單是 MapReduce,到現在我們都知道,MapReduce 早已經被 Spark 等計算框架趕超,而 Hdfs 卻依然屹立不倒。究其原因,正式因爲 Yarn 的包容,使得其他計算框架能專注於計算性能的提升。Hdfs 可能不是最優秀的大數據存儲系統,但卻是應用最廣泛的大數據存儲系統,Yarn 功不可沒。

  大連哪個醫院婦科好 http://xzmobile.84211111.cn/

  大連哪個醫院看婦科好 http://xzmobile.bhbyby.com/

  大連包皮醫院××× http://bp.liaoningnk.com/


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章