一次講清楚京東科技百億級用戶畫像平臺的探索和實踐 | 京東雲技術團隊

背景

如果你是用戶,當你使用抖音、小紅書的時候,假如平臺能根據你的屬性、偏好、行爲推薦給你感興趣的內容,那就能夠爲你節省大量獲取內容的時間。

如果你是商家,當你要進行廣告投放的時候,假如平臺推送的用戶都是你潛在的買家,那你就可以花更少的錢,帶來更大的收益。

這兩者背後都有一項共同的技術支撐,那就是用戶畫像。

業務能力

京東科技畫像系統,提供標準的畫像功能服務,包含標籤市場、人羣管理、數據服務、標籤管理等,可以將用戶分羣服務於其他各個業務系統。

挑戰

  • 數據量大

目前平臺擁有百億+的用戶ID、5000+的標籤,單個人羣包內的用戶數量可達數十億級,每天更新的人羣也有2W多個。

  • 計算複雜

標籤圈選的條件複雜,底層依賴的數據量級較高,人羣計算需要進行大量的交併差計算。

  • 查詢時間短

如果人羣數預估、人羣創建的耗時較長,對業務方的影響較大。

  • 數據存儲成本高

大量的人羣數據存儲需要高昂的存儲成本。

  • 數據查詢量大、性能要求高

大促期間接口調用量高達百萬QPS,接口響應要求要在40毫秒以內,而且要支持批量人羣調用。

壓縮的Bitmap

Bitmap 是一個二進制集合,用0或1標識某個值是否存在,使用Bitmap的特點和標籤、人羣結果的結構高度契合,正常1億的人羣包使用Bitmap存儲只需要50MB左右。

在求兩個集合的交併差運算時,不需要遍歷兩個集合,只要對位進行與運算即可。無論是比較次數的降低(從 O(N^2) 到O(N) ),還是比較方式的改善(位運算),都給性能帶來巨大的提升。

從RoaringBitmap說起

RoaringBitmap(簡稱RBM)是一種高效壓縮位圖,本質上是將大塊的bitmap分成各個小桶,其中每個小桶在需要存儲數據的時候纔會被創建,從而達到了壓縮存儲和高性能計算的效果。

在實際存儲時,先把64位的數劃分成高32位和低32位,建立一個我們稱爲Container的容器,同樣的再分別爲高低32位創建高16位和低16位的Container,最終可以通過多次二分查找找到offset所在的小桶。

選擇Clickhouse

  • Clickhouse的特點

完備的數據庫管理功能,包括DML(數據操作語言)、DDL(數據定義語言)、權限控制、數據備份與恢復、分佈式計算和管理。

列式存儲與數據壓縮: 數據按列存儲,在按列聚合的場景下,可有效減少查詢時所需掃描的數據量。同時,按列存儲數據對數據壓縮有天然的友好性(列數據的同類性),降低網絡傳輸和磁盤 IO 的壓力。

關係模型與SQL: ClickHouse使用關係模型描述數據並提供了傳統數據庫的概念(數據庫、表、視圖和函數等)。與此同時,使用標準SQL作爲查詢語言,使得它更容易理解和學習,並輕鬆與第三方系統集成。

數據分片與分佈式查詢: 將數據橫向切分,分佈到集羣內各個服務器節點進行存儲。與此同時,可將數據的查詢計算下推至各個節點並行執行,提高查詢速度。

  • 爲什麼選擇Clickhouse

**分析性能高:**在同類產品中,ClickHouse分析性能遙遙領先,複雜的人羣預估SQL可以做到秒級響應。

**簡化開發流程:**關係型數據庫和SQL對於開發人員有天然的親和度,使得所有的功能開發完全SQL化,支持JDBC,降低了開發和維護的成本。

**開源、社區活躍度高:**版本迭代非常快,幾乎幾天到十幾天更新一個小版本,發展趨勢迅猛。

**支持壓縮位圖:**數據結構上支持壓縮位圖,有完善的Bitmap函數支撐各種業務場景。

  • Clickhouse的部署架構

採用分佈式多分片部署,每個分片保證至少有2個節點互爲主備,來達到高性能、高可用的目的。

分片和節點之間通過Zookeeper來保存元數據,以及互相通信。這樣可以看出Clickhouse本身是對Zookeeper是強依賴的,所以通常還需要部署一個3節點的高可用Zookeeper集羣。

  • 分佈式表和本地表

本地表指每個節點的實際存儲數據的表,有兩個特點:

1、每個節點維護自己的本地表;

2、每個本地表只管這個節點的數據。

本地表每個節點都要創建,CK通常是會按自己的策略把數據平均寫到每一個節點的本地表,本地數據本地計算,最後再把所有節點的結果彙總到一起。

通常我們也可以通過DDL里加上ON CLUSTER [集羣模式] 這樣的形式在任意節點執行即可在全部節點都創建相同的表。

例如通過ON CLUSTER模式執行DDL語句在每個節點創建名爲[test]的庫,其中[default]爲創建集羣時配置的集羣名稱

CREATE DATABASE test ON CLUSTER default


通常我們可以在應用裏通過JDBC在每個節點執行SQL得到結果後,再在應用內進行聚合,要注意的是像平均值這樣的計算,只能是通過先求SUM再求COUNT來實現了,直接使用平均值函數只能得到錯誤的結果。

分佈式表是邏輯上的表、可以理解位視圖。比如要查一張表的全量數據,可以去查詢分佈式表,執行時分發到每一個節點上,等所有節點都執行結束再在一個節點上彙總到一起(會對單節點造成壓力)。

查詢分佈式表時,節點之間通信也是依賴zk,會對zk造成一定的壓力。

同樣的分佈式表如果需要每個節點都能查詢,就得在每一個節點都建表,當然也可以使用ON CLUSTER模式來創建。

例如爲test.test_1在所有節點創建分佈式表:

CREATE TABLE test.test_1_dist ON CLUSTER default
as test.test_1 ENGINE = Distributed('default','test','test_1',rand());


  • 對Bitmap的支持

a、創建包含有Bitmap列的表

CREATE TABLE cdp.group ON CLUSTER default
(
    `code` String,
    `version` String,
    `offset_bitmap` AggregateFunction(groupBitmap, UInt64)
)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/cdp/{shard}/group_1',
 '{replica}')
PARTITION BY (code)
ORDER BY (code)
SETTINGS storage_policy = 'default',
 use_minimalistic_part_header_in_zookeeper = 1,
 index_granularity = 8192;


b、Bitmap如何寫入CK

通常有2種方式來寫入Bitmap:

1、第一種通過INSERT .... SELECT...來執行INSERT SQL語句把明細數據中的offset轉爲Bitmap

INSERT INTO cdp.group SELECT 'group1' AS code, 'version1' AS version, groupBitmapState(offset) AS offset_bitmap  FROM tag.tag1 WHERE ....


2、在應用內生成Bitmap通過JDBC直接寫入

<dependency>
    <!-- please stop using ru.yandex.clickhouse as it's been deprecated -->
    <groupId>com.clickhouse</groupId>
    <artifactId>clickhouse-jdbc</artifactId>
    <version>0.3.2-patch11</version>
    <!-- use uber jar with all dependencies included, change classifier to http for smaller jar -->
    <classifier>all</classifier>
    <exclusions>
        <exclusion>
            <groupId>*</groupId>
            <artifactId>*</artifactId>
        </exclusion>
    </exclusions>
</dependency>


String sql = "INSERT INTO cdp.group SELECT code,version,offset_bitmap FROM input('code String,version String,offset_bitmap AggregateFunction(groupBitmap,UInt64)')";
        try (PreparedStatement ps = dataSource.getConnection().prepareStatement(
                sql)) {
            ps.setString(1, code); // col1
            ps.setString(2, uuid); // col2
            ps.setObject(3, ClickHouseBitmap.wrap(bitmap.getSourceBitmap(), ClickHouseDataType.UInt64)); // col3
            ps.addBatch(); 
            ps.executeBatch(); 
        }


c、從CK讀取Bitmap

直接讀取:

ClickHouseStatement statement =null;
            try{
                statement = connection.createStatement();
                ClickHouseRowBinaryInputStream in = statement.executeQueryClickhouseRowBinaryStream(sql);
                ClickHouseBitmap bit = in.readBitmap(ClickHouseDataType.UInt64);
                Roaring64NavigableMap obj =(Roaring64NavigableMap) bit.unwrap();
                returnnewExtRoaringBitmap(obj);
            }catch(Exception e){
                log.error("查詢位圖錯誤 [ip:{}][sql:{}]", ip, sql, e);
                throw e;
            }finally{
                DbUtils.close(statement);
            }


上面的方法直接讀取Bitmap會大量佔用應用內存,怎麼進行優化呢? 我們可以通過Clickhouse把Bitmap轉成列,通過流式讀取bitmap裏的offset,在應用裏創建Bitmap

privatestatic String SQL_WRAP="SELECT bitmap_arr AS offset FROM (SELECT bitmapToArray(offset_bitmap) AS bitmap_arr  FROM (SELECT ({}) AS offset_bitmap LIMIT 1)) ARRAY JOIN bitmap_arr";

    publicstatic Roaring64NavigableMap getBitmap(Connection conn, String sql){
        Statement statement =null;
        ResultSet rs =null;
        try{
            statement = conn.createStatement(
                    ResultSet.TYPE_FORWARD_ONLY,
                    ResultSet.CONCUR_READ_ONLY);

            String exeSql = ATool.format(SQL_WRAP, sql);
            rs = statement.executeQuery(exeSql);

            Roaring64NavigableMap bitmap =newRoaring64NavigableMap();
            while(rs.next()){
                Long offset = rs.getLong(1);
                if(offset !=null){
                    bitmap.add(offset);
                }
            }
            return bitmap;
        }catch(Exception e){
            log.error("從CK讀取bitmap錯誤, SQL:{}", sql, e);
        }finally{
            ATool.close(rs, statement);
        }
        returnnull;
    }


京東科技CDP

  • 整體架構

  • 數據流轉

  • 進一步優化

1. 並行計算

前面提到了Clickhouse通常把數據按照分片數把數據拆分成n份,只要我們保證相同用戶id的數據在每一張本地表中都在同一個節點,那麼我們多表之間進行JOIN計算時只需要每一個節點的本地表之間進行計算,從而達到了並行計算的效果。

爲了達到這個目的,那必須要從開始的明細表就要通過一定的策略進行切分,定製什麼樣的切分策略呢?這就要從RoaringBitmap的特性和機制來考慮。

2. 提高Bitmap在各節點的壓縮率

標籤和人羣的最終結果數據都是用RoaringBitmap來存儲的,如果每個Bitmap存儲的小桶數量越少,那麼計算和存儲的成本就會更小,使用哪種策略來切分就變得至關重要。

先按照RoaringBitmap的策略將數據按照2的16次方爲單位,切分成多個小桶,然後爲小桶進行編號,再按編號取餘來切分。這樣同一個RoaringBitmap小桶中的offset只會在1個分片上,從而達到了減少小桶個數的目的。

//把數據拆分成10個分片,計算每個offset再哪個分片上
long shardIndex = (offset >>> 16) % 10


再進一步向上看,明細表如果也保持這樣的分片邏輯,那麼從明細轉成Bitmap後,Bitmap自然就是高壓縮的。

3.標籤Bitmap表

標籤明細數據怎麼存,嚴重關係到人羣計算的效率,經過長期的探索和優化,最終通過按枚舉分組來加工出標籤Bitmap來實現高效、高壓縮的存儲策略,但整個進化過程是一步步遞進完成的。

階段 方案 優勢 劣勢和瓶頸
第一階段 標籤寬表(單表) 查詢速度快、支持複雜條件 1、單表壓力大 2、合併單表、單表寫的時間過長,出錯就要全量重推 3、存儲成本高
第二階段 標籤窄表(多表) 1、輕量化表管理靈活 2、標籤時效性提升較爲突出 1、計算需要多表JOIN,計算時間長,還時常會有超時和計算不出結果的情況;
第三階段 每個標籤按照枚舉分組計算出標籤枚舉的Bitmap保存爲中間結果表 解決了階段二計算時間長的問題,極大的節約了存儲和計算資源 表數量和數據分區過多會增加ZK集羣的壓力;

數據服務

人羣加工完成後要對外提供命中服務,爲了支撐高併發高性能的調用需求,人羣Bitmap的存儲必須使用緩存來存儲。

起初是把一個完整的Bitmap切分成了8份,存儲到8臺物理機的內存裏,每臺機器存儲了1/8的數據。這種存儲方式本身是沒有問題的,但面臨着運維複雜,擴容困難的問題。

那麼我們能不能使用Redis來存儲人羣數據呢?經過探索發現Redis本身是不支持壓縮位圖的,當我們寫入一個2的64次方大小的offset時,就會創建一個龐大的Bitmap,佔用大量的內存空間。這時我們就想到了使用壓縮位圖的原理把位圖按照2的16次方大小切分成多個小桶,把大的Bitmap轉成小的Bitmap,在保存時減去一定的偏移量,在讀取時在加上偏移量,那麼每一個小桶就是一個65536(2^16)大小的Bitmap。從而我們開發了一套完整的Agent程序來記錄元數據信息,進行路由和讀寫Redis,最終實現了Redis存儲壓縮Bitmap的目的。

 long bucketIndex = offset / 65536L;
 long bucketOffset = offset % 65536L;
//其中偏移量就是bucketIndex * 65536L


保存時只需要把key+[bucketIndex]作爲key,使用bucketOffset來setBit()。

進一步查文檔發現,Redis本身就是支持把Bitmap轉成字節數組後一次性寫入的,這樣又進一步的提升了數據寫入的效率。

總結

京東科技CDP畫像平臺通過對用戶分羣,針對不同的用戶投放以不同形式的不同內容,實現千人千面的精準投放,最終實現用戶的增長。對外提供多樣的數據服務,服務於不同的業務,以支持精準營銷、精細化運營,智能外呼等營銷場景。

隨着時代的發展,離線人羣已經不能滿足日益增長的運營需求。從去年開始,CDP着手建設數據實時化,目前已經完全做到了人羣命中實時計算。

作者:京東科技 梁發文

來源:京東雲開發者社區 轉載請註明來源

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章