Redis開發與運維讀書筆記-第十一章-緩存設計

緩存能夠有效地加速應用的讀寫速度,同時也可以降低後端負載,對日常應用的開發至關重要。但是將緩存加入應用架構後也會帶來一些問題.

1 緩存的收益和成本

收益如下:
·加速讀寫:因爲緩存通常都是全內存的(例如Redis、Memcache),而存儲層通常讀寫性能不夠強悍(例如MySQL),通過緩存的使用可以有效地加速讀寫,優化用戶體驗。
·降低後端負載:幫助後端減少訪問量和複雜計算(例如很複雜的SQL語句),在很大程度降低了後端的負載。
成本如下:
·數據不一致性:緩存層和存儲層的數據存在着一定時間窗口的不一致性,時間窗口跟更新策略有關。
·代碼維護成本:加入緩存後,需要同時處理緩存層和存儲層的邏輯,增大了開發者維護代碼的成本。
·運維成本:以Redis Cluster爲例,加入後無形中增加了運維成本。
緩存的使用場景基本包含如下兩種:
·開銷大的複雜計算:以MySQL爲例子,一些複雜的操作或者計算(例如大量聯表操作、一些分組計算),如果不加緩存,不但無法滿足高併發 量,同時也會給MySQL帶來巨大的負擔。
·加速請求響應:即使查詢單條後端數據足夠快(例如select*from table where id=),那麼依然可以使用緩存,以Redis爲例子,每秒可以完成數萬 次讀寫,並且提供的批量操作可以優化整個IO鏈的響應時間。

2 緩存更新策略

緩存中的數據通常都是有生命週期的,需要在指定時間後被刪除或更新,這樣可以保證緩存空間在一個可控的範圍。但是緩存中的數據會和數據源中的真實數據有一段時間窗口的不一致,需要利用某些策略進行更新。下 面將分別從使用場景、一致性、開發人員開發/維護成本三個方面介紹三種緩存的更新策略。

1.LRU/LFU/FIFO算法剔除
使用場景:剔除算法通常用於緩存使用量超過了預設的最大值時候,如何對現有的數據進行剔除。例如Redis使用maxmemory-policy這個配置作爲內存最大值後對於數據的剔除策略。
一致性:要清理哪些數據是由具體算法決定,開發人員只能決定使用哪種算法,所以數據的一致性是最差的。
維護成本:算法不需要開發人員自己來實現,通常只需要配置最大 maxmemory和對應的策略即可。開發人員只需要知道每種算法的含義,選擇適合自己的算法即可。

2.超時剔除
使用場景:超時剔除通過給緩存數據設置過期時間,讓其在過期時間後自動刪除,例如Redis提供的expire命令。如果業務可以容忍一段時間內,緩存層數據和存儲層數據不一致,那麼可以爲其設置過期時間。在數據過期後,再從真實數據源獲取數據,重新放到緩存並設置過期時間。例如一個視頻的描述信息,可以容忍幾分鐘內數據不一致,但是涉及交易方面的業務,後果可想而知。
一致性:一段時間窗口內(取決於過期時間長短)存在一致性問題,即緩存數據和真實數據源的數據不一致。
維護成本:維護成本不是很高,只需設置expire過期時間即可,當然前提是應用方允許這段時間可能發生的數據不一致。

3.主動更新
使用場景:應用方對於數據的一致性要求高,需要在真實數據更新後,立即更新緩存數據。例如可以利用消息系統或者其他方式通知緩存更新。
一致性:一致性最高,但如果主動更新發生了問題,那麼這條數據很可能很長時間不會更新,所以建議結合超時剔除一起使用效果會更好。
維護成本:維護成本會比較高,開發者需要自己來完成更新,並保證更新操作的正確性。

下表給出了緩存的三種常見更新策略的對比。

三種常見更新策略的對比
策略 一致性 維護成本
LRU/LFU/FIFO算法剔除 最差
超時剔除 較差 較低
主動更新

4.最佳實踐
·低一致性業務建議配置最大內存和淘汰策略的方式使用。
·高一致性業務可以結合使用超時剔除和主動更新,這樣即使主動更新出了問題,也能保證數據過期時間後刪除髒數據。

3 緩存粒度控制

下圖是很多項目關於緩存比較常用的選型,緩存層選用Redis,存儲層選用MySQL。

Redis+Mysql架構

例如現在需要將MySQL的用戶信息使用Redis緩存,可以執行如下操作:
從MySQL獲取用戶信息:

select * from user where id={id}

將用戶信息緩存到Redis中:

set user:{id} 'select * from user where id={id}'

假設用戶表有100個列,需要緩存到什麼維度呢?
·緩存全部列:

set user:{id}  'select * from user where id={id}'

·緩存部分重要列:

set user:{id} 'select {importantColumn1}, {important Column2} ... {importantColumnN}     from user where id={id}'

上述這個問題就是緩存粒度問題,究竟是緩存全部屬性還是隻緩存部分重要屬性呢?下面將從通用性、空間佔用、代碼維護三個角度進行說明.

通用性。緩存全部數據比部分數據更加通用,但從實際經驗看,很長時間內應用只需要幾個重要的屬性。
空間佔用。緩存全部數據要比部分數據佔用更多的空間,可能存在以下問題:
·全部數據會造成內存的浪費。
·全部數據可能每次傳輸產生的網絡流量會比較大,耗時相對較大,在極端情況下會阻塞網絡。
·全部數據的序列化和反序列化的CPU開銷更大。
代碼維護。全部數據的優勢更加明顯,而部分數據一旦要加新字段需要修改業務代碼,而且修改後通常還需要刷新緩存數據

下表給出緩存全部數據和部分數據在通用性、空間佔用、代碼維護上的對比,開發人員可以酌情選擇。

緩存全部數據和部分數據對比
數據類型 通用性 空間佔用(內存空間+網絡帶寬) 代碼維護
全部數據 簡單
部分數據 較爲複雜

緩存粒度問題是一個容易被忽視的問題,如果使用不當,可能會造成很多無用空間的浪費,網絡帶寬的浪費,代碼通用性較差等情況,需要綜合數據通用性、空間佔用比、代碼維護性三點進行取捨。

4 穿透優化

緩存穿透是指查詢一個根本不存在的數據,緩存層和存儲層都不會命中,通常出於容錯的考慮,如果從存儲層查不到數據則不寫入緩存層,整個過程分爲如下3步:
1)緩存層不命中。
2)存儲層不命中,不將空結果寫回緩存。
3)返回空結果。

緩存穿透將導致不存在的數據每次請求都要到存儲層去查詢,失去了緩存保護後端存儲的意義。
緩存穿透問題可能會使後端存儲負載加大,由於很多後端存儲不具備高併發性,甚至可能造成後端存儲宕掉。通常可以在程序中分別統計總調用數、緩存層命中數、存儲層命中數,如果發現大量存儲層空命中,可能就是出現了緩存穿透問題。
造成緩存穿透的基本原因有兩個。第一,自身業務代碼或者數據出現問題,第二,一些惡意攻擊、爬蟲等造成大量空命中。下面我們來看一下如何解決緩存穿透問題。

1.緩存空對象

如下圖所示,當第2步存儲層不命中後,仍然將空對象保留到緩存層中,之後再訪問這個數據將會從緩存中獲取,這樣就保護了後端數據源。

緩存空值應對穿透問題

緩存空對象會有兩個問題:第一,空值做了緩存,意味着緩存層中存了更多的鍵,需要更多的內存空間(如果是攻擊,問題更嚴重),比較有效的方法是針對這類數據設置一個較短的過期時間,讓其自動剔除。第二,緩存層和存儲層的數據會有一段時間窗口的不一致,可能會對業務有一定影響。 例如過期時間設置爲5分鐘,如果此時存儲層添加了這個數據,那此段時間就會出現緩存層和存儲層數據的不一致,此時可以利用消息系統或者其他方式清除掉緩存層中的空對象。
下面給出緩存空對象的實現代碼:

String get(String key) {    
// 從緩存中獲取數據    
String cacheValue = cache.get(key);    
// 緩存爲空
    if (StringUtils.isBlank(cacheValue)) {        
        // 從存儲中獲取        
        String storageValue = storage.get(key);        
        cache.set(key, storageValue);        
        // 如果存儲數據爲空,需要設置一個過期時間(300秒)        
        if (storageValue == null) {            
            cache.expire(key, 60 * 5);        
        }        
        return storageValue;    
    } else {        
        // 緩存非空        
        return cacheValue;    
    } 
}

2.布隆過濾器攔截
如下圖所示,在訪問緩存層和存儲層之前,將存在的key用布隆過濾 器提前保存起來,做第一層攔截。例如:一個推薦系統有4億個用戶id,每個小時算法工程師會根據每個用戶之前歷史行爲計算出推薦數據放到存儲層中,但是最新的用戶由於沒有歷史行爲,就會發生緩存穿透的行爲,爲此可 以將所有推薦數據的用戶做成布隆過濾器。如果布隆過濾器認爲該用戶id不存在,那麼就不會訪問存儲層,在一定程度保護了存儲層。

使用布隆過濾器應對穿透問題

有關布隆過濾器的相關知識,可以參考:https://en.wikipedia.org/wiki/Bloom_filter可以利用Redis的Bitmaps實現布 隆過濾器,GitHub上已經開源了類似的方案,讀者可以進行參 考:https://github.com/erikdubbelboer/redis-lua-scaling-bloom-filter。這種方法適用於數據命中不高、數據相對固定、實時性低(通常是數據集較大)的應用場景,代碼維護較爲複雜,但是緩存空間佔用少。

3.兩種方案對比

前面介紹了緩存穿透問題的兩種解決方法(實際上這個問題是一個開放問題,有很多解決方法),下表從適用場景和維護成本兩個方面對兩種方案進行分析。

緩存空對象和布隆過濾器方案對比
解決緩存穿透 適用場景 維護成本
緩存空對象

數據命中不高

數據頻繁變化實時性高

代碼維護簡單

需要過多的緩存空間

數據不一致

布隆過濾器

數據命中不高

數據相對固定實時性低

代碼維護複雜

緩存空間佔用少

5 無底洞優化

2010年,Facebook的Memcache節點已經達到了3000個,承載着TB級別的緩存數據。但開發和運維人員發現了一個問題,爲了滿足業務要求添加了 大量新Memcache節點,但是發現性能不但沒有好轉反而下降了,當時將這 種現象稱爲緩存的“無底洞”現象。
那麼爲什麼會產生這種現象呢,通常來說添加節點使得Memcache集羣性能應該更強了,但事實並非如此。鍵值數據庫由於通常採用哈希函數將 key映射到各個節點上,造成key的分佈與業務無關,但是由於數據量和訪問量的持續增長,造成需要添加大量節點做水平擴容,導致鍵值分佈到更多的 節點上,所以無論是Memcache還是Redis的分佈式,批量操作通常需要從不同節點上獲取,相比於單機批量操作只涉及一次網絡操作,分佈式批量操作會涉及多次網絡時間。

無底洞問題分析:
·客戶端一次批量操作會涉及多次網絡操作,也就意味着批量操作會隨着節點的增多,耗時會不斷增大。
·網絡連接數變多,對節點的性能也有一定影響。

用一句通俗的話總結就是,更多的節點不代表更高的性能,所謂“無底 洞”就是說投入越多不一定產出越多。但是分佈式又是不可以避免的,因爲訪問量和數據量越來越大,一個節點根本抗不住,所以如何高效地在分佈式緩存中批量操作是一個難點。
下面介紹如何在分佈式條件下優化批量操作。在介紹具體的方法之前, 我們來看一下常見的IO優化思路:
·命令本身的優化,例如優化SQL語句等。
·減少網絡通信次數。
·降低接入成本,例如客戶端使用長連/連接池、NIO等。

這裏我們假設命令、客戶端連接已經爲最優,重點討論減少網絡操作次數。以Redis批量獲取n個字符串爲例,有三種實現方法,如下圖所示。

客戶端批量操作的三種實現

·客戶端n次get:n次網絡+n次get命令本身。
·客戶端1次pipeline get:1次網絡+n次get命令本身。
·客戶端1次mget:1次網絡+1次mget命令本身。
上面已經給出了IO的優化思路以及單個節點的批量操作優化方式,下面結合Redis Cluster的一些特性對四種分佈式的批量操作方式進行說明。
1.串行命令
由於n個key是比較均勻地分佈在Redis Cluster的各個節點上,因此無法 使用mget命令一次性獲取,所以通常來講要獲取n個key的值,最簡單的方法 就是逐次執行n個get命令,這種操作時間複雜度較高,它的操作時間=n次網絡時間+n次命令時間,網絡次數是n。很顯然這種方案不是最優的,但是實 現起來比較簡單,如下圖所示。

客戶端串行n次命令

Jedis客戶端示例代碼如下:

List<String> serialMGet(List<String> keys) {    
    // 結果集    
    List<String> values = new ArrayList<String>();    
    // n次串行get    
    for (String key : keys) {        
        String value = jedisCluster.get(key);        
        values.add(value);    
    }    
    return values; 
}

2.串行IO
Redis Cluster使用CRC16算法計算出散列值,再取對16383的餘數就可以算出slot值,同時Jedis客戶端會保存slot和節點的對應關係,有了這兩個數據就可以將屬於同一個節點的key進行歸檔,得到每個節點的key子列表,之後對每個節點執行mget或者Pipeline操作,它的操作時間 =node次網絡時間+n次命令時間,網絡次數是node的個數,整個過程如下圖所示,很明顯這種方案比第一種要好很多,但是如果節點數太多,還是有一定的性能問題。

客戶端串行node次網絡IO

Jedis客戶端示例代碼如下:

Map<String, String> serialIOMget(List<String> keys) {    
    // 結果集    
    Map<String, String> keyValueMap = new HashMap<String, String>();    
    // 屬於各個節點的key列表,JedisPool要提供基於ip和port的hashcode方法    
    Map<JedisPool, List<String>> nodeKeyListMap = new HashMap<JedisPool, List<String>>()        
    // 遍歷所有的key
    for (String key : keys) {        
        // 使用CRC16本地計算每個key的slot        
        int slot = JedisClusterCRC16.getSlot(key);        
        // 通過jedisCluster本地slot->node映射獲取slot對應的node        
        JedisPool jedisPool = jedisCluster.getConnectionHandler()
                              .getJedisPoolFromSlot(slot);        
        // 歸檔        
        if (nodeKeyListMap.containsKey(jedisPool)) {                    
            nodeKeyListMap.get(jedisPool).add(key);        
        } else {            
            List<String> list = new ArrayList<String>();            
            list.add(key);            
            nodeKeyListMap.put(jedisPool, list);        
        }    
    }    
    // 從每個節點上批量獲取,這裏使用mget也可以使用pipeline    
    for (Entry<JedisPool, List<String>> entry : nodeKeyListMap.entrySet()) {
         JedisPool jedisPool = entry.getKey();        
         List<String> nodeKeyList = entry.getValue();        
        // 列表變爲數組        
        String[] nodeKeyArray = nodeKeyList.toArray(new String[nodeKeyList.size()]);                
        // 批量獲取,可以使用mget或者Pipeline        
        List<String> nodeValueList = jedisPool.getResource().mget(nodeKeyArray);                        
        // 歸檔       
         for (int i = 0; i < nodeKeyList.size(); i++) {
                keyValueMap.put(nodeKeyList.get(i), nodeValueList.get(i));        
         }    
    }    
    return keyValueMap; 
}

3.並行IO
此方案是將方案2中的最後一步改爲多線程執行,網絡次數雖然還是節點個數,但由於使用多線程網絡時間變爲O(1),這種方案會增加編程的複雜度。它的操作時間爲:

max_slow(node網絡時間)+n次命令時間

整個過程如下圖所示。Jedis客戶端示例代碼如下,只需要將串行IO變爲多線程:

客戶端並行node次網絡IO

Jedis客戶端示例代碼如下,只需要將串行IO變爲多線程:

Map<String, String> parallelIOMget(List<String> keys) {    
    // 結果集    
    Map<String, String> keyValueMap = new HashMap<String, String>();    
    // 屬於各個節點的key列表    
    Map<JedisPool, List<String>> nodeKeyListMap = new HashMap<JedisPool, 
    List<String>>()    
    ...和前面一樣
     // 多線程mget,最終彙總結果    
    for (Entry<JedisPool, List<String>> entry : nodeKeyListMap.entrySet()) {        
    // 多線程實現    
    }    
    return keyValueMap; 
}

4.hash_tag實現
Redis Cluster的hash_tag功能,可以將多個key強制分配到 一個節點上,它的操作時間=1次網絡時間+n次命令時間,如下圖所示。

 hash_tag將多個key分配到一個節點

如下圖所示,所有key屬於node2節點。

 hashtag只需要1次網絡時間

Jedis客戶端示例代碼如下:

List<String> hashTagMget(String[] hashTagKeys) {    
    return jedisCluster.mget(hashTagKeys); 
}

上面對批量操作的四種方案進行了介紹,最後通過下表來對四種方案的優缺點、網絡IO次數進行一個總結。

四種批量操作解決方案對比
方案 優點 缺點 網絡IO
串行命令

1)編程簡單

2)如果少量keys,性能可以滿足要求

大量keys請求,延遲嚴重 o(keys)
串行IO

1)編程簡單

2)少量節點,性能滿足要求

大量node延遲嚴重 o(nodes)
並行IO 利用並行特點,延遲取決於最慢的節點

1)編程複雜

2)由於多線程,問題定位可能較難

o(max_slow(nodes))
hash_tag 性能最高

1)業務維護成本較高

2)容易出現數據傾斜

o(1)

實際開發中可以根據上表給出的優缺點進行分析,沒有最好的方案只有最合適的方案。

6 雪崩優化

下圖描述了什麼是緩存雪崩:由於緩存層承載着大量請求,有效地保護了存儲層,但是如果緩存層由於某些原因不能提供服務,於是所有的請求都會達到存儲層,存儲層的調用量會暴增,造成存儲層也會級聯宕機的情 況。緩存雪崩的英文原意是stampeding herd(奔逃的野牛),指的是緩存層宕掉後,流量會像奔逃的野牛一樣,打向後端存儲。

緩存層不可用引起的雪崩

預防和解決緩存雪崩問題,可以從以下三個方面進行着手。
1)保證緩存層服務高可用性。如果緩存層設計成高可用的,即使個別節點、個別機器、甚至是機房宕掉,依然可以提供服務,例如前面介紹過的Redis Sentinel和Redis Cluster都實現了高可用。
2)依賴隔離組件爲後端限流並降級。無論是緩存層還是存儲層都會有出錯的概率,可以將它們視同爲資源。作爲併發量較大的系統,假如有一個資源不可用,可能會造成線程全部阻塞(hang)在這個資源上,造成整個系統不可用。降級機制在高併發系統中是非常普遍的:比如推薦服務中,如果個性化推薦服務不可用,可以降級補充熱點數據,不至於造成前端頁面是開天窗。在實際項目中,我們需要對重要的資源(例如Redis、MySQL、 HBase、外部接口)都進行隔離,讓每種資源都單獨運行在自己的線程池中,即使個別資源出現了問題,對其他服務沒有影響。但是線程池如何管理,比如如何關閉資源池、開啓資源池、資源池閥值管理,這些做起來還是 相當複雜的。這裏推薦一個Java依賴隔離工具 Hystrix(https://github.com/netflix/hystrix)。Hystrix是解決依賴隔離的利器,只適用於Java應用,這裏不做詳細介紹。
3)提前演練。在項目上線前,演練緩存層宕掉後,應用以及後端的負載情況以及可能出現的問題,在此基礎上做一些預案設定。

7 熱點key重建優化

開發人員使用“緩存+過期時間”的策略既可以加速數據讀寫,又保證數據的定期更新,這種模式基本能夠滿足絕大部分需求。但是有兩個問題如果同時出現,可能就會對應用造成致命的危害:
·當前key是一個熱點key(例如一個熱門的娛樂新聞),併發量非常大。
·重建緩存不能在短時間完成,可能是一個複雜計算,例如複雜的SQL、多次IO、多個依賴等。
在緩存失效的瞬間,有大量線程來重建緩存(如下圖所示),造成後端負載加大,甚至可能會讓應用崩潰。要解決這個問題也不是很複雜,但是不能爲了解決這個問題給系統帶來更多的麻煩,所以需要制定如下目標:

·減少重建緩存的次數
·數據儘可能一致。
·較少的潛在危險。
 

熱點key失效後大量線程重建緩存

1.互斥鎖(mutex key)
此方法只允許一個線程重建緩存,其他線程等待重建緩存的線程執行完,重新從緩存獲取數據即可,整個過程如下圖所示。

使用互斥鎖重建緩存

下面代碼使用Redis的setnx命令實現上述功能:

String get(String key) {    
    // 從Redis中獲取數據    
    String value = redis.get(key);    
    // 如果value爲空,則開始重構緩存    
    if (value  == null) {        
        // 只允許一個線程重構緩存,使用nx,並設置過期時間ex        
        String mutexKey = "mutext:key:" + key;        
        if (redis.set(mutexKey, "1", "ex 180", "nx")) {            
            // 從數據源獲取數據            
            value = db.get(key);            
            // 回寫Redis,並設置過期時間            
            redis.setex(key, timeout, value);            
            // 刪除key_mutex            
            redis.delete(mutexKey);        
        }         
        // 其他線程休息50毫秒後重試        
        else {            
            Thread.sleep(50);            
            get(key);        
        }    
     }    
    return value; 
}

1)從Redis獲取數據,如果值不爲空,則直接返回值;否則執行下面的2.1)和2.2)步驟。
2.1)如果set(nx和ex)結果爲true,說明此時沒有其他線程重建緩存,那麼當前線程執行緩存構建邏輯。
2.2)如果set(nx和ex)結果爲false,說明此時已經有其他線程正在執行構建緩存的工作,那麼當前線程將休息指定時間(例如這裏是50毫秒,取決於構建緩存的速度)後,重新執行函數,直到獲取到數據。

2.永遠不過期
“永遠不過期”包含兩層意思:
·從緩存層面來看,確實沒有設置過期時間,所以不會出現熱點key過期 後產生的問題,也就是“物理”不過期。
·從功能層面來看,爲每個value設置一個邏輯過期時間,當發現超過邏輯過期時間後,會使用單獨的線程去構建緩存。
整個過程如下圖所示。

永不過期策略

從實戰看,此方法有效杜絕了熱點key產生的問題,但唯一不足的就是重構緩存期間,會出現數據不一致的情況,這取決於應用方是否容忍這種不 一致。下面代碼使用Redis進行模擬:

String get(final String key) {    
    V v = redis.get(key);    
    String value = v.getValue();    
    // 邏輯過期時間
    long logicTimeout = v.getLogicTimeout();    
    // 如果邏輯過期時間小於當前時間,開始後臺構建    
    if (v.logicTimeout <= System.currentTimeMillis()) {        
        String mutexKey = "mutex:key:" + key;            
        if (redis.set(mutexKey, "1", "ex 180", "nx")) {                
            // 重構緩存                
            threadPool.execute(new Runnable() {                    
                public void run() {                        
                    String dbValue = db.get(key);                        
                    redis.set(key, (dbvalue,newLogicTimeout));                                
                    redis.delete(mutexKey);                    
                }                    
            });                
        }            
    }            
    return value;    
}

作爲一個併發量較大的應用,在使用緩存時有三個目標:第一,加快用戶訪問速度,提高用戶體驗。第二,降低後端負載,減少潛在的風險,保證 系統平穩。第三,保證數據“儘可能”及時更新。下面將按照這三個維度對上述兩種解決方案進行分析。
·互斥鎖(mutex key):這種方案思路比較簡單,但是存在一定的隱患,如果構建緩存過程出現問題或者時間較長,可能會存在死鎖和線程池阻塞的風險,但是這種方法能夠較好地降低後端存儲負載,並在一致性上做得比較好。
·“永遠不過期”:這種方案由於沒有設置真正的過期時間,實際上已經 不存在熱點key產生的一系列危害,但是會存在數據不一致的情況,同時代碼複雜度會增大。

兩種解決方法對比如下表所示:

兩種熱點key的解決方法
解決方法 優點 缺點
簡單分佈式鎖

1)思路簡單

2)保證一致性

代碼複雜度增大

存在死鎖的風險

永不過期 基本杜絕熱點key問題

不保證一致性

邏輯過期時間增加代碼維護成本和內存成本

小結:

1)緩存的使用帶來的收益是能夠加速讀寫,降低後端存儲負載。
2)緩存的使用帶來的成本是緩存和存儲數據不一致性,代碼維護成本增大,架構複雜度增大。
3)比較推薦的緩存更新策略是結合剔除、超時、主動更新三種方案共同完成。
4)穿透問題:使用緩存空對象和布隆過濾器來解決,注意它們各自的使用場景和侷限性。
5)無底洞問題:分佈式緩存中,有更多的機器不保證有更高的性能。 有四種批量操作方式:串行命令、串行IO、並行IO、hash_tag。
6)雪崩問題:緩存層高可用、客戶端降級、提前演練是解決雪崩問題的重要方法。
7)熱點key問題:互斥鎖、“永遠不過期”能夠在一定程度上解決熱點 key問題,開發人員在使用時要了解它們各自的使用成本。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章