利用 Amazon EMR Serverless、Amazon Athena、Apache Dolphinscheduler 以及本地 TiDB 和 HDFS 在混合部署環境中構建無服務器數據倉庫

引言

在數據驅動的世界中,企業正在尋求可靠且高性能的解決方案來管理其不斷增長的數據需求。本系列博客從一個重視數據安全和合規性的 B2C 金融科技客戶的角度來討論雲上雲下混合部署的情況下如何利用亞馬遜雲科技雲原生服務、開源社區產品以及第三方工具構建無服務器數據倉庫的解耦方法。

file

Apache EMR(Elastic MapReduce)Serverless 是亞馬遜雲科技推出的一種全託管的無服務器大數據處理服務。它基於 Apache Spark 和 Apache Hive 計算引擎,提供計算和存儲分離的架構,實現架構彈性的同時,增強了性能。

Apache DolphinScheduler 是一種與 EMR 集羣解耦部署的多功能工作流調度程序,可確保高效可靠的數據編排和處理。此外,Amazon Athena 使客戶能夠使用標準 SQL 執行 Ad-hoc 查詢並分析大量數據集,從而無需複雜的基礎設施管理。通過 AWS 控制檯實現的開放的集成測試,爲這些組件的無縫集成和驗證提供了可能,大大加快了工程師的工作效率。對於金融科技客戶,EMR Serverless 可以提供業務線(LOB)級別的精細資源消費分析,從而實現精確監控和成本優化。這一功能在金融領域尤其有價值。因爲在該領域,運營敏捷性和成本效益至關重要。B2C 金融科技客戶非常重視數據安全性和合規性。爲了解決這些問題,本案客戶採用了本地和雲混合架構。敏感數據存儲在本地。本博客討論了實現本地系統和雲環境之間數據無縫同步的具體解決方案。該解決方案使客戶能夠保持對敏感信息的嚴格控制,同時受益於雲計算的可擴展性和靈活性。

本文着重探討雲上雲下數據同步方案的設計。

架構設計

金融科技客戶非常關注數據安全和合規性。對於博客中討論的具體案例,業務數據存儲在本地 TiDB 上,而用戶行爲數據通過Sensors Data套件收集,存儲在本地 HDFS 上。 TiDB 是亞馬遜雲科技全球合作伙伴。

亞馬遜雲科技上的 TiDB 產品服務信息可以通過此鏈接獲取。Sensors Data 是亞馬遜雲科技大中國區的合作伙伴。 亞馬遜雲科技上的 Senors Data 產品服務信息可以通過此鏈接獲取。

這些本地數據源通亞馬遜雲科技 Direct Connect 連接到亞馬遜雲科技的 Region。在亞馬遜雲科技的環境中,數據流經 Interface Endpoint for S3、亞馬遜雲科技 PrivateLink,最終訪問 S3 存儲桶(如下圖所示,存儲桶名爲 ODS(示例))。接口終端節點由通過 Amazon Route53 託管的 DNS 解析器註冊和管理。

然後,數據由 Amazon EMR Serverless Job(Hive 作業或 Spark 作業)處理,以實現數據倉庫分層邏輯。不同的分層數據存儲在單獨的 S3 存儲桶中或同一 S3 存儲桶下的比不同的 S3 前綴中。這些數據的架構通過 Glue 數據目錄進行管理,並且可以通過 Amazon Athena 控制檯進行查詢。

第三方 BI 工具通過 JDBC 與 Amazon Athena 進一步集成,實現數據可視化和生成數據報告,滿足不同的業務需求,包括監管要求。

EMR Serveless Job 通過在 3 個 EC2 實例上以集羣模式部署的 Apache DolphinScheduler 進行編排。

DolphinScheduler 集羣與其編排的 EMR 作業解耦部署,實現了整個系統的高可靠性:一個(EMR 作業或調度器)發生故障不會影響另一個(調度器或 EMR 作業)。

解決方案系統架構圖

雲上雲下數據同步解決方案

從網絡基礎設施的角度來看,亞馬遜雲科技 Direct Connect 被用來實現客戶本地和亞馬遜雲科技區域之間的連接。在亞馬遜雲科技環境中,數據流經 Interface Endpoint for S3、亞馬遜雲科技 PrivateLink,最終訪問 S3 存儲桶(如下圖所示,存儲桶名爲 ODS(示例))。接口終端節點由通過 Amazon Route53 託管的 DNS 解析器註冊和管理。有關進一步的架構、工作機制說明以及部署指南,請參閱privatelink-interface-endpoints文檔。

從數據傳輸的角度,設計了軟件級雙向數據同步解決方案。包括 3 個子場景:

  1. 存量數據從本地同步到亞馬遜雲科技 Region;
  2. 增量數據從本地同步到亞馬遜雲科技 Region;
  3. 將數據從亞馬遜雲科技 Region 反向同步到本地。

對於每個場景,都有特定的要求:

  1. 數據同步解決方案應該在源是 TiDB、HDFS,目標是亞馬遜雲科技 S3 的上下文中工作;
  2. 需要數據完整性檢查機制,確保數據得到一致同步。

表 1 描述了滿足每個子場景的特定要求的具體的解決方案。

表 1:雲上雲下數據同步解決方案設計

  具體要求    
    數據同步解決方案在一端是 TiDB、HDFS、另一端是亞馬遜雲科技 S3 的環境下工作 數據完整性檢查
子場景 存量數據從本地同步到亞馬遜雲科技 Region TiDB Dumpling 將數據從 TiDB 同步到亞馬遜雲科技 S3 亞馬遜雲科技 DataSync 將數據從本地 HDFS 同步到亞馬遜雲科技 S3 自主研發的數據完整性檢查 亞馬遜雲科技 DataSync 執行完整性檢查以確保寫入目標的數據與從源讀取的數據匹配
  增量數據從本地到亞馬遜雲科技區域 Region TiDB Dumpling(帶有 ETL 邏輯)/TiDB CDC Connector 從 TiDB 到亞馬遜雲科技 S3 亞馬遜雲科技 DataSync 將數據從本地 HDFS 同步到亞馬遜雲科技 S3 自主研發的數據完整性檢查 亞馬遜雲科技 DataSync 執行完整性檢查以確保寫入目標的數據與從源讀取的數據匹配
  將數據從亞馬遜雲科技區域反向同步到本地 EMR Serverless Job 將數據從 Glue Catalog 表同步到 TiDB 表 自主研發的數據完整性檢查

具體解決辦法解釋如下:

存量數據同步

利用 TiDB Dumpling 將數據從 TiDB 同步到亞馬遜雲科技 S3

如何實現本地 TiDB 數據同步到 AWS S3 ,可以參考導出數據到亞馬遜 S3 雲存儲指導。通過執行以下命令,存儲在 TiDB 中的數據可以轉儲爲 csv 文件並存儲在 AWS S3 存儲桶中。

./dumpling -u root -P 4000 -h 127.0.0.1 -r 200000 -o "s3://${Bucket}/${Folder}" –filetype csv

存量數據同步

利用亞馬遜雲科技 DataSync 將數據從本地 HDFS 同步到亞馬遜雲科技 S3

亞馬遜雲科技 DataSync 代理應安裝在客戶本地的服務器上。連接到 Hadoop 集羣時,亞馬遜雲科技 DataSync 代理充當 HDFS 客戶端,與 Hadoop 集羣中的主 NameNode 通信,然後從 DataNode 複製文件數據。可以通過亞馬遜雲科技 DataSync獲取該操作指南,將數據從 Hadoop HDFS 同步到 Amazon S3。

增量數據同步

利用 TiDB Dumpling 和自管理的檢查點

爲了通過 TiDB Dumpling 工具實現增量數據同步,需要自行管理目標同步數據的檢查點。一種推薦的方法是將最後攝取的記錄的 id 存儲到特定介質(例如 ElastiCache for Redis、DynamoDB)中,以在執行觸發 TiDB Dumpling 的 shell/python 作業時實現自我管理檢查點。

當然,實現該方案的前提是目標表有一個單調遞增的 id 字段作爲主鍵。

對導出的數據進行過濾,可以獲取具體的 TiDB Dumpling 命令。示例命令如下所示。

./dumpling -u root -P 4000 -h 127.0.0.1 -o /tmp/test --where "id < 100"

增量數據同步

利用 TiDB CDC Connector 從 TiDB 到亞馬遜雲科技 S3

利用 TiDB CDC Connector 實現 TiDB 到亞馬遜雲科技 S3 的增量數據同步的好處是有原生的 CDC 機制,而且由於後端引擎是 Flink,所以性能很快。然而,這種方法有一個棘手的點或權衡點:需要創建相當多的 Flink 表來映射亞馬遜雲科技上的 ODS 表。

本 TiDB CDC Connector 操作指南可以通過Tidb CDC 獲取。

增量數據同步

利用 EMR Serverless Job 將數據從 Glue Catalog 表反向同步到 TiDB 表

大多數數據從客戶的本地流向亞馬遜雲科技。但是,存在這樣的場景:根據特定業務的需要,數據從亞馬遜雲科技反向流向客戶本地。

數據着落亞馬遜雲科技後,將通過使用特定表結構創建的 Athena 表通過 Glue 數據目錄進行打包/管理。表 DDL 腳本如下所示:

CREATE EXTERNAL TABLE IF NOT EXISTS `table_name`(
  `id` string,
  ……
  `created_at` string) 
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'
LOCATION 's3://bucket_name/prefix_name/';  

在這種情況下,EMR Serverless Spark Job 可以完成將數據從亞馬遜雲科技 Glue 表反向同步到客戶本地表的工作。

如果 Spark 作業是用 Scala 編寫的,示例代碼如下:

package com.example
import org.apache.spark.sql.{DataFrame, SparkSession}

object Main  {

  def main(args: Array[String]): Unit = {

    val spark = SparkSession.builder()
      .appName("<app name>")
      .enableHiveSupport()
      .getOrCreate()

    spark.sql("show databases").show()
    spark.sql("use default")
    var df=spark.sql("select * from <glue table name>")

    df.write
      .format("jdbc")
      .option("driver","com.mysql.cj.jdbc.Driver")
      .option("url", "jdbc:mysql://tidbcloud_endpoint:4000/namespace")
      .option("dbtable", "table_name")
      .option("user", "use_name")
      .option("password", "password_string")
      .save()

    spark.close()
  }

}

通過 SBT 將 Scala 代碼打包爲 jar 文件後,可以通過以下亞馬遜雲科技 Cli 命令將作業提交到 EMR Serverless 引擎:

export applicationId=00fev6mdk***

export job_role_arn=arn:aws:iam::<aws account id>:role/emr-serverless-job-role

aws emr-serverless start-job-run \
    --application-id $applicationId \
    --execution-role-arn $job_role_arn \
    --job-driver '{
        "sparkSubmit": {
            "entryPoint": "s3://spark-sql-test-nov23rd/scripts/dec13-1/scala-glue_2.13-1.0.1.jar",
            "sparkSubmitParameters": "--conf spark.hadoop.hive.metastore.client.factory.class=com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory --conf spark.driver.cores=1 --conf spark.driver.memory=3g --conf spark.executor.cores=4 --conf spark.executor.memory=3g --jars s3://spark-sql-test-nov23rd/mysql-connector-j-8.2.0.jar"
        }
    }'

如果 Spark 作業是用 Pyspark 編寫的,示例代碼如下:

import os
import sys
import pyspark.sql.functions as F
from pyspark.sql import SparkSession

if __name__ == "__main__":

    spark = SparkSession\
        .builder\
        .appName("app1")\
        .enableHiveSupport()\
        .getOrCreate()

    df=spark.sql(f"select * from {str(sys.argv[1])}")

    df.write.format("jdbc").options(
        driver="com.mysql.cj.jdbc.Driver",
        url="jdbc:mysql://tidbcloud_endpoint:4000/namespace ",
        dbtable="table_name",
        user="use_name",
        password="password_string").save()

    spark.stop()

可以通過以下亞馬遜雲科技 CLI 命令將該作業提交到 EMR Serverless 引擎:

export applicationId=00fev6mdk***

export job_role_arn=arn:aws:iam::<aws account id>:role/emr-serverless-job-role

aws emr-serverless start-job-run \
    --application-id $applicationId \
    --execution-role-arn $job_role_arn \
    --job-driver '{
        "sparkSubmit": {
            "entryPoint": "s3://spark-sql-test-nov23rd/scripts/dec13-1/testpython.py",
            "entryPointArguments": ["testspark"],
            "sparkSubmitParameters": "--conf spark.hadoop.hive.metastore.client.factory.class=com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory --conf spark.driver.cores=1 --conf spark.driver.memory=3g --conf spark.executor.cores=4 --conf spark.executor.memory=3g --jars s3://spark-sql-test-nov23rd/mysql-connector-j-8.2.0.jar"
        }
    }'

上述 Pyspark 代碼和亞馬遜雲科技 CLI 命令同時實現了外部傳參:提交作業時將表名傳輸到 SQL 語句中。

自研的數據完整性檢查

完備的數據完整性校驗通過在源庫上創建校驗庫,選擇非空唯一字段計算校驗值和行數,在目標庫上使用與源庫相同的字段計算校驗值和行數,比較源庫和目標庫的校驗值和行數實現。

如果校驗結果是不一致,那麼需要手動對比和調整。這種校驗方式的前提條件是源庫和目標庫都是關係型數據庫。本文中 TiDB 向亞馬遜雲科技 S3 的數據同步,目標端是對象存儲而不併是數據庫。

因此,數據完整性的檢驗上會有些 trade-off。實戰中,採用對比目標數據集的列總數和行總數,以及列名稱的方式實現。

亞馬遜雲科技 DataSync 數據完整性

DataSync 利用亞馬遜雲科技設計的與其連接的存儲協議無關的傳輸協議,在數據移動時執行實時校驗和驗證。詳細信息可以在configure-data-verification-options獲取。除了實時校驗和驗證之外,DataSync 還支持增量傳輸、內聯壓縮。

DataSync 處理傳輸過程,因此用戶無需編寫和優化自己的複製腳本,也無需部署和微調商業數據傳輸工具。內置監控可確保移動文件和對象的數據完整性,並採用自動重試機制,以便到達目標文件存儲的內容與原始文件匹配。

總結

金融科技客戶非常注重數據安全和合規。爲規避潛在的風險,本案例所涉及的客戶的做法是將用戶的出入金數據、用戶的基礎數據(統稱爲業務數據)放在 IDC,而用戶的行爲數據以及脫敏之後的業務數據放在雲馬遜雲科技平臺中。

從亞馬遜雲科技所服務的全球範圍內的 FSI 行業客戶看,越來越多的金融科技公司選擇將業務數據也存放在亞馬遜雲科技平臺上。亞馬遜雲科技爲客戶提供的雲平臺及服務在安全和合規方面積累了非常豐富的認證,包括平臺整體認證、適配所在國家/地區監管法規的認證、行業認證等等;同時亞馬遜雲科技也開發了非常豐富的產品服務幫助客戶應對數據安全合規角度的各種需求。

 

本文由 白鯨開源科技 提供發佈支持!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章