引子
TMC 是什麼
TMC,即“透明多級緩存(Transparent Multilevel Cache)”,是有贊 PaaS 團隊給公司內應用提供的整體緩存解決方案。
TMC 在通用“分佈式緩存解決方案(如 CodisProxy + Redis,如有贊自研分佈式緩存系統 zanKV)”基礎上,增加了以下功能:
-
應用層熱點探測
-
應用層本地緩存
-
應用層緩存命中統計
以幫助應用層解決緩存使用過程中出現的熱點訪問問題。
爲什麼要做 TMC
使用有贊服務的電商商家數量和類型很多,商家會不定期做一些“商品秒殺”、“商品推廣”活動,導致“營銷活動”、“商品詳情”、“交易下單”等鏈路應用出現緩存熱點訪問的情況:
-
活動時間、活動類型、活動商品之類的信息不可預期,導致 緩存熱點訪問 情況不可提前預知;
-
緩存熱點訪問出現期間,應用層少數熱點訪問 key 產生大量緩存訪問請求:衝擊分佈式緩存系統,大量佔據內網帶寬,最終影響應用層系統穩定性;
爲了應對以上問題,需要一個能夠 自動發現熱點 並 將熱點緩存訪問請求前置在應用層本地緩存 的解決方案,這就是 TMC 產生的原因。
多級緩存解決方案的痛點
基於上述描述,我們總結了下列多級緩存解決方案需要解決的需求痛點:
-
熱點探測:如何快速且準確的發現熱點訪問 key ?
-
數據一致性:前置在應用層的本地緩存,如何保障與分佈式緩存系統的數據一致性?
-
效果驗證:如何讓應用層查看本地緩存命中率、熱點 key 等數據,驗證多級緩存效果?
-
透明接入:整體解決方案如何減少對應用系統的入侵,做到快速平滑接入?
TMC 聚焦上述痛點,設計並實現了整體解決方案。以支持“熱點探測”和“本地緩存”,減少熱點訪問時對下游分佈式緩存服務的衝擊,避免影響應用服務的性能及穩定性。
TMC 整體架構
TMC 整體架構如上圖,共分爲三層:
-
存儲層:提供基礎的 kv 數據存儲能力,針對不同的業務場景選用不同的存儲服務(codis/zankv/aerospike);
-
代理層:爲應用層提供統一的緩存使用入口及通信協議,承擔分佈式數據水平切分後的路由功能轉發工作;
-
應用層:提供統一客戶端給應用服務使用,內置“熱點探測”、“本地緩存”等功能,對業務透明;
本篇聚焦在應用層客戶端的“熱點探測”、“本地緩存”功能。
TMC 本地緩存
如何透明
TMC 是如何減少對業務應用系統的入侵,做到透明接入的?
對於公司 Java 應用服務,在緩存客戶端使用方式上分爲兩類:
- 基於
spring.data.redis
包,使用RedisTemplate
編寫業務代碼;
基於youzan.framework.redis
包,使用RedisClient
編寫業務代碼;
不論使用以上那種方式,最終通過JedisPool
創建的 Jedis
對象與緩存服務端代理層做請求交互。
TMC 對原生 jedis 包的JedisPool
和Jedis
類做了改造,在JedisPool
初始化過程中集成 TMC“熱點發現”+“本地緩存”功能Hermes-SDK
包的初始化邏輯,使 Jedis客戶端與緩存服務端代理層交互時先與Hermes-SDK
交互,從而完成 “熱點探測”+“本地緩存”功能的透明接入。
對於 Java 應用服務,只需使用特定版本的 jedis-jar 包,無需修改代碼,即可接入 TMC 使用“熱點發現”+“本地緩存”功能,做到了對應用系統的最小入侵。
整體結構
模塊劃分
TMC 本地緩存整體結構分爲如下模塊:
-
Jedis-Client:Java 應用與緩存服務端交互的直接入口,接口定義與原生 Jedis-Client 無異;
-
Hermes-SDK:自研“熱點發現+本地緩存”功能的 SDK 封裝,Jedis-Client 通過與它交互來集成相應能力;
-
Hermes 服務端集羣:接收 Hermes-SDK 上報的緩存訪問數據,進行熱點探測,將熱點 key 推送給 Hermes-SDK 做本地緩存;
-
緩存集羣:由代理層和存儲層組成,爲應用客戶端提供統一的分佈式緩存服務入口;
-
基礎組件:etcd 集羣、Apollo 配置中心,爲 TMC 提供“集羣推送”和“統一配置”能力;
基本流程
-
key 值獲取
- Java 應用調用
Jedis-Client
接口獲取key
的緩存值時,Jedis-Client
會詢問Hermes-SDK
該key
當前是否是 熱點key; - 對於
熱點key
,直接從Hermes-SDK
的熱點模塊
獲取熱點key
在本地緩存的value
值,不去訪問 緩存集羣 ,從而將訪問請求前置在應用層; - 對於非 熱點key ,Hermes-SDK 會通過 Callable回調 Jedis-Client 的原生接口,從 緩存集羣 拿到 value 值;
- 對於 Jedis-Client 的每次 key 值訪問請求,Hermes-SDK 都會通過其 通信模塊 將 key 訪問事件 異步上報給 Hermes 服務端集羣 ,以便其根據上報數據進行“熱點探測”;
- Java 應用調用
-
key 值過期
- ava 應用調用 Jedis-Client 的 set() del() expire()接口時會導致對應 key 值失效,Jedis-Client 會同步調用 Hermes-SDK 的 invalid()方法告知其“key 值失效”事件;
- 對於 熱點 key ,Hermes-SDK 的 熱點模塊 會先將 key 在本地緩存的 value 值失效,以達到本地數據強一致。同時 通信模塊 會異步將“key 值失效”事件通過 etcd 集羣 推送給 Java 應用集羣中其他 Hermes-SDK 節點;
- 其他 Hermes-SDK 節點的 通信模塊 收到 “key 值失效”事件後,會調用 熱點模塊 將 key 在本地緩存的 value 值失效,以達到集羣數據最終一致;
-
熱點發現
- Hermes 服務端集羣 不斷收集 Hermes-SDK上報的 key 訪問事件,對不同業務應用集羣的緩存訪問數據進行週期性(3s 一次)分析計算,以探測業務應用集羣中的熱點 key列表;
- 對於探測到的熱點 key列表,Hermes 服務端集羣 將其通過 etcd 集羣 推送給不同業務應用集羣的 Hermes-SDK 通信模塊,通知其對熱點 key列表進行本地緩存;
-
配置讀取
- Hermes-SDK 在啓動及運行過程中,會從 Apollo 配置中心 讀取其關心的配置信息(如:啓動關閉配置、黑白名單配置、etcd 地址…);
- Hermes 服務端集羣 在啓動及運行過程中,會從 Apollo 配置中心 讀取其關心的配置信息(如:業務應用列表、熱點閾值配置、etcd 地址…);
穩定性
TMC 本地緩存穩定性表現在以下方面:
-
數據上報異步化:Hermes-SDK 使用 rsyslog技術對“key 訪問事件”進行異步化上報,不會阻塞業務;
-
通信模塊線程隔離:Hermes-SDK 的 通信模塊 使用獨立線程池+有界隊列,保證事件上報&監聽的 I/O 操作與業務執行線程隔離,即使出現非預期性異常也不會影響基本業務功能;
-
緩存管控:Hermes-SDK 的 熱點模塊 對本地緩存大小上限進行了管控,使其佔用內存不超過64MB(LRU),杜絕 JVM 堆內存溢出的可能;
一致性
TMC 本地緩存一致性表現在以下方面:
-
Hermes-SDK 的 熱點模塊 僅緩存 熱點 key 數據,絕大多數非熱點 key數據由 緩存集羣 存儲;
-
熱點 key 變更導致 value 失效時,Hermes-SDK 同步失效本地緩存,保證 本地強一致;
-
熱點 key 變更導致 value 失效時,Hermes-SDK 通過 etcd 集羣 廣播事件,異步失效業務應用集羣中其他節點的本地緩存,保證 集羣最終一致;
TMC 熱點發現
整體流程
TMC 熱點發現流程分爲四步:
-
數據收集:收集 Hermes-SDK 上報的 key 訪問事件;
-
熱度滑窗:對 App 的每個 Key,維護一個時間輪,記錄基於當前時刻滑窗的訪問熱度;
-
熱度匯聚:對 App 的所有 Key,以 <key,熱度>的形式進行 熱度排序彙總;
-
熱點探測:對 App,從 熱 Key 排序彙總 結果中選出 TopN 的熱點 Key ,推送給 Hermes-SDK;
數據收集
Hermes-SDK 通過本地 rsyslog將 key 訪問事件 以協議格式放入 kafka ,Hermes 服務端集羣 的每個節點消費 kafka 消息,實時獲取 key 訪問事件。
訪問事件協議格式如下:
-
appName:集羣節點所屬業務應用
-
uniqueKey:業務應用 key 訪問事件 的 key
-
sendTime:業務應用 key 訪問事件 的發生時間
-
weight:業務應用 key 訪問事件 的訪問權值
Hermes 服務端集羣 節點將收集到的 key 訪問事件 存儲在本地內存中,內存數據結構爲 Map<String,Map<String,LongAdder>>,對應業務含義映射爲 Map<appName,Map<uniqueKey,熱度>>。
熱度滑窗
時間滑窗
Hermes 服務端集羣 節點,對每個 App 的每個 key,維護了一個 時間輪:
- 時間輪中共 10 個 時間片,每個時間片記錄當前 key 對應 3 秒時間週期的總訪問次數;
- 時間輪 10 個時間片的記錄累加即表示當前 key 從當前時間向前 30 秒時間窗口內的總訪問次數;
映射任務
Hermes 服務端集羣 節點,對每個 App 每 3 秒 生成一個 映射任務 ,交由節點內 “緩存映射線程池” 執行。映射任務 內容如下:
- 對當前 App,從 Map<appName,Map<uniqueKey,熱度>>中取出 appName 對應的 Map Map<uniqueKey,熱度>>;
- 遍歷 Map<uniqueKey,熱度>>中的 key,對每個 key 取出其熱度存入其 時間輪 對應的時間片中;
熱度匯聚
完成第二步“熱度滑窗”後,映射任務 繼續對當前 App 進行“熱度匯聚”工作:
- 遍歷 App 的 key,將每個 key 的 時間輪 熱度進行彙總(即 30 秒時間窗口內總熱度)得到探測時刻 滑窗總熱度;
- 將 < key , 滑窗總熱度 > 以排序集合的方式存入 Redis 存儲服務 中,即 熱度匯聚結果;
熱點探測
- 在前幾步,每 3 秒 一次的 映射任務 執行,對每個 App 都會產生一份當前時刻的 熱度匯聚結果 ;
- Hermes 服務端集羣 中的“熱點探測”節點,對每個 App,只需週期性從其最近一份 熱度匯聚結果 中取出達到熱度閾值的 TopN 的 key 列表,即可得到本次探測的 熱點 key 列表;
TMC 熱點發現整體流程如下圖:
特性總結
實時性
Hermes-SDK 基於rsyslog + kafka 實時上報 key 訪問事件。映射任務 3 秒一個週期完成“熱度滑窗” + “熱度匯聚”工作,當有 熱點訪問場景 出現時最長 3 秒即可探測出對應 熱點 key。
準確性
key 的熱度匯聚結果由“基於時間輪實現的滑動窗口”匯聚得到,相對準確地反應當前及最近正在發生訪問分佈。
擴展性
Hermes 服務端集羣節點無狀態,節點數可基於 kafka 的 partition 數量橫向擴展。
“熱度滑窗” + “熱度匯聚” 過程基於 App 數量,在單節點內多線程擴展。
TMC 實戰效果
快手商家某次商品營銷活動
有贊商家通過快手直播平臺爲某商品搞活動,造成該商品短時間內被集中訪問產生訪問熱點,活動期間 TMC 記錄的實際熱點訪問效果數據如下:
某核心應用的緩存請求&命中率曲線圖
可以看出活動期間緩存請求量及本地緩存命中量均有明顯增長,本地緩存命中率達到近 80%(即應用集羣中 80% 的緩存查詢請求被 TMC 本地緩存攔截)。
熱點緩存對應用訪問的加速效果
可以看出活動期間應用接口的請求量有明顯增長,由於 TMC 本地緩存的效果應用接口的 RT 反而出現下降。
雙十一期間部分應用 TMC 效果展示
商品域核心應用效果
活動域核心應用效果
TMC 功能展望
在有贊,TMC 目前已爲商品中心、物流中心、庫存中心、營銷活動、用戶中心、網關&消息等多個核心應用模塊提供服務,後續應用也在陸續接入中。
TMC 在提供“熱點探測” + “本地緩存”的核心能力同時,也爲應用服務提供了靈活的配置選擇,應用服務可以結合實際業務情況在“熱點閾值”、“熱點 key 探測數量”、“熱點黑白名單”維度進行自由配置以達到更好的使用效果。
最後,TMC 的迭代還在持續進行中…