【Flink】(二)詳解 Flink 運行架構

一、 Flink 運行時的組件

Flink 運行時架構主要包括四個不同的組件,它們會在運行流處理應用程序時協同工作:

作業管理器(JobManager)、資源管理器(ResourceManager)、任務管理器(TaskManager),以及分發器(Dispatcher)。因爲 Flink 是用 Java 和 Scala 實現的,所以所有組件都會運行在Java 虛擬機上。

每個組件的職責如下:

  • 作業管理器(JobManager)

控制一個應用程序執行的主進程,也就是說,每個應用程序都會被一個不同的JobManager 所控制執行。JobManager 會先接收到要執行的應用程序,這個應用程序會包括:作業圖(JobGraph)、邏輯數據流圖(logical dataflow graph)和打包了所有的類、庫和其它資源的JAR 包。JobManager 會把JobGraph 轉換成一個物理層面的數據流圖,這個圖被叫做 “執行圖”(ExecutionGraph),包含了所有可以併發執行的任務。JobManager 會向資源管理器(ResourceManager)請求執行任務必要的資源,也就是任務管理器(TaskManager)上的插槽(slot)。一旦它獲取到了足夠的資源,就會將執行圖分發到真正運行它們的TaskManager 上。而在運行過程中,JobManager 會負責所有需要中央協調的操作,比如說檢查點(checkpoints)的協調。

  • 資源管理器(ResourceManager)

主要負責管理任務管理器(TaskManager)的插槽(slot),TaskManger 插槽是 Flink 中定義的處理資源單元。Flink 爲不同的環境和資源管理工具提供了不同資源管理器,比如YARN、Mesos、K8s,以及 standalone 部署。當JobManager 申請插槽資源時,ResourceManager會將有空閒插槽的TaskManager 分配給JobManager。如果 ResourceManager 沒有足夠的插槽來滿足 JobManager 的請求,它還可以向資源提供平臺發起會話,以提供啓動 TaskManager進程的容器。另外,ResourceManager 還負責終止空閒的 TaskManager,釋放計算資源。

  • 任務管理器(TaskManager)

Flink 中的工作進程。通常在 Flink 中會有多個 TaskManager 運行,每一個TaskManager 都包含了一定數量的插槽(slots)。插槽的數量限制了 TaskManager 能夠執行的任務數量。啓動之後,TaskManager 會向資源管理器註冊它的插槽;收到資源管理器的指令後,TaskManager 就會將一個或者多個插槽提供給 JobManager 調用。JobManager 就可以向插槽分配任務(tasks)來執行了。在執行過程中,一個TaskManager 可以跟其它運行同一應用程序的TaskManager 交換數據。

  • 分發器(Dispatcher)

可以跨作業運行,它爲應用提交提供了 REST 接口。當一個應用被提交執行時,分發器就會啓動並將應用移交給一個 JobManager。由於是REST 接口,所以Dispatcher 可以作爲集羣的一個HTTP 接入點,這樣就能夠不受防火牆阻擋。Dispatcher 也會啓動一個 Web UI,用來方便地展示和監控作業執行的信息。Dispatcher 在架構中可能並不是必需的,這取決於應用提交運行的方式。

二、任務提交流程

我們來看看當一個應用提交執行時,Flink 的各個組件是如何交互協作的:

在這裏插入圖片描述

上圖是從一個較爲高層級的視角,來看應用中各組件的交互協作。如果部署的集羣環境不同(例如 YARN,Mesos,Kubernetes,standalone 等),其中一些步驟可以被省略,或是有些組件會運行在同一個 JVM 進程中。

具體地,如果我們將 Flink 集羣部署到YARN 上,那麼就會有如下的提交流程:

在這裏插入圖片描述

Flink 任務提交後,Client 向 HDFS 上傳 Flink 的 Jar 包和配置,之後向 Yarn ResourceManager 提交任務,ResourceManager 分配 Container 資源並通知對應的NodeManager 啓動 ApplicationMaster,ApplicationMaster 啓動後加載 Flink 的 Jar 包和配置構建環境,然後啓動 JobManager,之後 ApplicationMaster 向 ResourceManager申請資源啓動 TaskManager , ResourceManager 分配 Container 資 源 後 , 由ApplicationMaster 通 知 資 源 所 在 節 點 的 NodeManager 啓動 TaskManager , NodeManager 加載 Flink 的 Jar 包和配置構建環境並啓動 TaskManager,TaskManager啓動後向 JobManager 發送心跳包,並等待 JobManager 向其分配任務。

三、任務調度原理

在這裏插入圖片描述
當 Flink 集 羣 啓 動 後 , 首 先 會 啓 動 一 個 JobManger 和一個或多個的 TaskManager。由 Client 提交任務給 JobManager,JobManager 再調度任務到各個 TaskManager 去執行,然後 TaskManager 將心跳和統計信息彙報給 JobManager。 TaskManager 之間以流的形式進行數據的傳輸。上述三者均爲獨立的 JVM 進程。

Client 爲提交 Job 的客戶端,可以是運行在任何機器上(與 JobManager 環境連通即可)。提交 Job 後,Client 可以結束進程(Streaming 的任務),也可以不結束並等待結果返回。

JobManager 主要負責調度 Job 並協調 Task 做 checkpoint ,職責上很像 Storm 的 Nimbus。從 Client 處接收到 Job 和 JAR 包等資源後,會生成優化後的執行計劃,並以 Task 的單元調度到各個 TaskManager 去執行。

TaskManager 在啓動的時候就設置好了槽位數(Slot),每個 slot 能啓動一個 Task,Task 爲線程。從 JobManager 處接收需要部署的 Task,部署啓動後,與自己的上游建立 Netty 連接,接收數據並處理。

3.1 TaskManger 與 Slots

Flink 中每一個 worker(TaskManager)都是一個 JVM 進程,它可能會在獨立的線程上執行一個或多個 subtask。爲了控制一個 worker 能接收多少個 task,worker 通過 task slot 來進行控制(一個 worker 至少有一個 task slot)。

每個 task slot 表示 TaskManager 擁有資源的一個固定大小的子集。假如一個TaskManager 有三個 slot,那麼它會將其管理的內存分成三份給各個 slot。資源 slot化意味着一個 subtask 將不需要跟來自其他 job 的 subtask 競爭被管理的內存,取而代之的是它將擁有一定數量的內存儲備。需要注意的是,這裏不會涉及到 CPU 的隔離,slot 目前僅僅用來隔離 task 的受管理的內存。

通過調整 task slot 的數量,允許用戶定義 subtask 之間如何互相隔離。如果一個TaskManager 一個 slot,那將意味着每個 task group 運行在獨立的 JVM 中(該 JVM可能是通過一個特定的容器啓動的),而一個 TaskManager 多個 slot 意味着更多的subtask 可以共享同一個 JVM。而在同一個 JVM 進程中的 task 將共享 TCP 連接(基於多路複用)和心跳消息。它們也可能共享數據集和數據結構,因此這減少了每個task 的負載。

在這裏插入圖片描述
圖 TaskManager 與 Slot
在這裏插入圖片描述
圖 子任務共享 Slot

默認情況下,Flink 允許子任務共享 slot,即使它們是不同任務的子任務(前提
是它們來自同一個 job)。 這樣的結果是,一個 slot 可以保存作業的整個管道。

Task Slot 是靜態的概念,是指 TaskManager 具有的併發執行能力,可以通過參數 taskmanager.numberOfTaskSlots 進行配置;而並行度 parallelism 是動態概念,即 TaskManager 運行程序時實際使用的併發能力,可以通過參數 parallelism.default進行配置。

也就是說,假設一共有 3 個 TaskManager,每一個 TaskManager 中的分配 3 個TaskSlot,也就是每個 TaskManager 可以接收 3 個 task,一共 9 個 TaskSlot,如果我們設置 parallelism.default=1,即運行程序默認的並行度爲 1,9 個 TaskSlot 只用了 1個,有 8 個空閒,因此,設置合適的並行度才能提高效率。

在這裏插入圖片描述
在這裏插入圖片描述

3.2 程序與數據流(DataFlow)

在這裏插入圖片描述
所有的 Flink 程序都是由三部分組成的: Source 、Transformation 和 Sink。 Source 負責讀取數據源,Transformation 利用各種算子進行處理加工,Sink 負責輸出。

在運行時,Flink 上運行的程序會被映射成“邏輯數據流”(dataflows),它包含了這三部分。每一個 dataflow 以一個或多個 sources 開始以一個或多個 sinks 結束。dataflow 類似於任意的有向無環圖(DAG)。在大部分情況下,程序中的轉換運算(transformations)跟 dataflow 中的算子(operator)是一一對應的關係,但有時候,一個 transformation 可能對應多個 operator。

在這裏插入圖片描述

3.3 執行圖(ExecutionGraph)

由 Flink 程序直接映射成的數據流圖是 StreamGraph,也被稱爲邏輯流圖,因爲它們表示的是計算邏輯的高級視圖。爲了執行一個流處理程序,Flink 需要將邏輯流圖轉換爲物理數據流圖(也叫執行圖),詳細說明程序的執行方式。

Flink 中的執行圖可以分成四層:StreamGraph -> JobGraph -> ExecutionGraph -> 物理執行圖。

StreamGraph:是根據用戶通過 Stream API 編寫的代碼生成的最初的圖。用來表示程序的拓撲結構。

JobGraph:StreamGraph 經過優化後生成了 JobGraph,提交給 JobManager 的數據結構。主要的優化爲,將多個符合條件的節點 chain 在一起作爲一個節點,這樣可以減少數據在節點之間流動所需要的序列化/反序列化/傳輸消耗。

ExecutionGraph : JobManager 根據 JobGraph 生成 ExecutionGraph 。 ExecutionGraph 是 JobGraph 的並行化版本,是調度層最核心的數據結構。

物理執行圖:JobManager 根據 ExecutionGraph 對 Job 進行調度後,在各個TaskManager 上部署 Task 後形成的“圖”,並不是一個具體的數據結構。

在這裏插入圖片描述

3.4 並行度(Parallelism)

Flink 程序的執行具有並行、分佈式的特性。
在執行過程中,一個流(stream)包含一個或多個分區(stream partition),而每一個算子(operator)可以包含一個或多個子任務(operator subtask),這些子任務在不同的線程、不同的物理機或不同的容器中彼此互不依賴地執行。

一個特定算子的子任務(subtask)的個數被稱之爲其並行度(parallelism)。一般情況下,一個流程序的並行度,可以認爲就是其所有算子中最大的並行度。一個程序中,不同的算子可能具有不同的並行度。

在這裏插入圖片描述
Stream 在算子之間傳輸數據的形式可以是 one-to-one(forwarding)的模式也可以是 redistributing 的模式,具體是哪一種形式,取決於算子的種類。

One-to-one:stream(比如在 source 和 map operator 之間)維護着分區以及元素的順序。那意味着 map 算子的子任務看到的元素的個數以及順序跟 source 算子的子任務生產的元素的個數、順序相同,map、fliter、flatMap 等算子都是 one-to-one 的對應關係。

  • 類似於 spark 中的窄依賴

Redistributing:stream(map()跟 keyBy/window 之間或者 keyBy/window 跟 sink之間)的分區會發生改變。每一個算子的子任務依據所選擇的 transformation 發送數據到不同的目標任務。例如,keyBy() 基於 hashCode 重分區、broadcast 和 rebalance會隨機重新分區,這些算子都會引起 redistribute 過程,而 redistribute 過程就類似於Spark 中的 shuffle 過程。

  • 類似於 spark 中的寬依賴

3.5 任務鏈(Operator Chains)

相同並行度的 one to one 操作,Flink 這樣相連的算子鏈接在一起形成一個 task,原來的算子成爲裏面的一部分。將算子鏈接成 task 是非常有效的優化:它能減少線程之間的切換和基於緩存區的數據交換,在減少時延的同時提升吞吐量。鏈接的行爲可以在編程 API 中進行指定。

在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章