Redis緩存和MySQL數據一致性3種方案詳解

需求起因

在高併發的業務場景下,數據庫大多數情況都是用戶併發訪問最薄弱的環節。所以,就需要使用redis做一個緩衝操作,讓請求先訪問到redis,而不是直接訪問MySQL等數據庫。

這個業務場景,主要是解決讀數據從Redis緩存,一般都是按照下圖的流程來進行業務操作。

讀取緩存步驟一般沒有什麼問題,但是一旦涉及到數據更新:數據庫和緩存更新,就容易出現緩存(Redis)和數據庫(MySQL)間的數據一致性問題

不管是先寫MySQL數據庫,再刪除Redis緩存;還是先刪除緩存,再寫庫,都有可能出現數據不一致的情況。舉一個例子:

1.如果刪除了緩存Redis,還沒有來得及寫庫MySQL,另一個線程就來讀取,發現緩存爲空,則去數據庫中讀取數據寫入緩存,此時緩存中爲髒數據。

2.如果先寫了庫,在刪除緩存前,寫庫的線程宕機了,沒有刪除掉緩存,則也會出現數據不一致情況。

因爲寫和讀是併發的,沒法保證順序,就會出現緩存和數據庫的數據不一致的問題。

如來解決?這裏給出兩個解決方案,先易後難,結合業務和技術代價選擇使用。

 


爲什麼是刪除緩存,而不是更新緩存

原因很簡單,很多時候,在複雜點的緩存場景,緩存不單單是數據庫中直接取出來的值。

比如可能更新了某個表的一個字段,然後其對應的緩存,是需要查詢另外兩個表的數據並進行運算,才能計算出緩存最新的值的。

另外更新緩存的代價有時候是很高的。是不是每次修改數據庫的時候,都一定要將其對應的緩存更新一份?也許有的場景是這樣,但是對於比較複雜的緩存數據計算的場景,就不是這樣了。如果你頻繁修改一個緩存涉及的多個表,緩存也頻繁更新。但是問題在於,這個緩存到底會不會被頻繁訪問到?舉個栗子,一個緩存涉及的表的字段,在 1 分鐘內就修改了 20 次,或者是 100 次,那麼緩存更新 20 次、100 次;但是這個緩存在 1 分鐘內只被讀取了 1 次,有大量的冷數據。實際上,如果你只是刪除緩存的話,那麼在 1 分鐘內,這個緩存不過就重新計算一次而已,開銷大幅度降低,用到緩存纔去算緩存。其實刪除緩存,而不是更新緩存,就是一個 lazy 計算的思想,不要每次都重新做複雜的計算,不管它會不會用到,而是讓它到需要被使用的時候再重新計算。

像 mybatis,hibernate,都有懶加載思想。查詢一個部門,部門帶了一個員工的 list,沒有必要說每次查詢部門,都裏面的 1000 個員工的數據也同時查出來。80% 的情況,查這個部門,就只是要訪問這個部門的信息就可以了。先查部門,同時要訪問裏面的員工,那麼這個時候只有在你要訪問裏面的員工的時候,纔會去數據庫裏面查詢 1000 個員工。

 


緩存和數據庫一致性解決方案

1.第一種方案:採用延時雙刪策略

在寫庫前後都進行redis.del(key)操作,並且設定合理的超時時間。

僞代碼如下

public void write(String key,Object data){
   redis.delKey(key);
   db.updateData(data);
   Thread.sleep(500);
   redis.delKey(key);
 }

1.1 具體的步驟就是:

1)先刪除緩存

2)再寫數據庫

3)休眠500毫秒

4)再次刪除緩存

1.2 那麼,這個500毫秒怎麼確定的,具體該休眠多久呢?

需要評估自己的項目的讀數據業務邏輯的耗時。這麼做的目的,就是確保讀請求結束,寫請求可以刪除讀請求造成的緩存髒數據。

當然這種策略還要考慮redis和數據庫主從同步的耗時。最後的的寫數據的休眠時間:則在讀數據業務邏輯的耗時基礎上,加幾百ms即可。比如:休眠1秒。

1.3 設置緩存過期時間

從理論上來說,給緩存設置過期時間,是保證最終一致性的解決方案。所有的寫操作以數據庫爲準,只要到達緩存過期時間,則後面的讀請求自然會從數據庫中讀取新值然後回填緩存

1.4 該方案的弊端

       結合雙刪策略+緩存超時設置,這樣最差的情況就是在超時時間內數據存在不一致,而且又增加了寫請求的耗時。

另外如果上億流量高併發時,出現了複雜點的情況: 數據發生了變更,先刪除了緩存,然後要去修改數據庫,還沒來得及修改,一個請求過來,去讀緩存,發現緩存空了,去查詢數據庫,查到了修改前的舊數據,放到了緩存中。隨後數據變更的程序完成了數據庫的修改, 結果此時線程宕機了,沒有刪除掉緩存,則也會出現數據不一致情況。

2、第二種方案:異步更新緩存(基於訂閱binlog的同步機制)

2.1 技術整體思路:

MySQL binlog增量訂閱消費+消息隊列+增量數據更新到redis

1)讀Redis:熱數據基本都在Redis

2)寫MySQL:增刪改都是操作MySQL

3)更新Redis數據:MySQ的數據操作binlog,來更新到Redis

2.2 Redis更新

2.2.1 數據操作主要分爲兩大塊:

  • 一個是全量(將全部數據一次寫入到redis)

  • 一個是增量(實時更新)

這裏說的是增量,指的是mysql的update、insert、delate變更數據。

2.2.2 讀取binlog後分析 ,利用消息隊列,推送更新各臺的redis緩存數據。

這樣一旦MySQL中產生了新的寫入、更新、刪除等操作,就可以把binlog相關的消息推送至Redis,Redis再根據binlog中的記錄,對Redis進行更新。

其實這種機制,很類似MySQL的主從備份機制,因爲MySQL的主備也是通過binlog來實現的數據一致性。

這裏可以結合使用canal(阿里的一款開源框架),通過該框架可以對MySQL的binlog進行訂閱,而canal正是模仿了mysql的slave數據庫的備份請求,使得Redis的數據更新達到了相同的效果。

當然,這裏的消息推送工具你也可以採用別的第三方:kafka、rabbitMQ等來實現推送更新Redis。

以上就是Redis和MySQL數據一致性詳解,相關的MySQL數據庫主從同步一致性可以參考:高併發架構系列:數據庫主從同步的3種一致性方案實現,優劣比較

 

3、第三種方案:基於JVM內存隊列(高併發)

讀取數據的時候,如果發現數據不在緩存中,那麼將重新讀取數據+更新緩存的操作,根據唯一標識路由之後,也發送同一個 jvm 內部隊列中。一個隊列對應一個工作線程,每個工作線程串行拿到對應的操作,然後一條一條的執行。

這樣的話,一個數據變更的操作,先刪除緩存,然後再去更新數據庫,但是還沒完成更新。此時如果一個讀請求過來,讀到了空的緩存,那麼可以先將緩存更新的請求發送到隊列中,此時會在隊列中積壓,然後同步等待緩存更新完成。這裏有一個優化點,一個隊列中,其實多個更新緩存請求串在一起是沒意義的,因此可以做過濾。如果發現隊列中已經有一個更新緩存的請求了,那麼就不用再放個更新請求操作進去了,直接等待前面的更新操作請求完成即可。待那個隊列對應的工作線程完成了上一個操作的數據庫的修改之後,纔會去執行下一個操作,也就是緩存更新的操作,此時會從數據庫中讀取最新的值,然後寫入緩存中。如果請求還在等待時間範圍內,不斷輪詢發現可以取到值了,那麼就直接返回;如果請求等待的時間超過一定時長,那麼這一次直接從數據庫中讀取當前的舊值。

高併發的場景下,該解決方案要注意的問題:

3.1  讀請求長時阻塞(即寫請求併發量過高)

由於讀請求進行了非常輕度的異步化,所以一定要注意讀超時的問題,每個讀請求必須在超時時間範圍內返回。

該解決方案,最大的風險點在於,可能數據更新很頻繁,導致隊列中積壓了大量更新操作在裏面,然後讀請求會發生大量的超時,最後導致大量的請求直接走數據庫。務必通過一些模擬真實的測試,看看更新數據的頻率是怎樣的。

另外一點,因爲一個隊列中,可能會積壓針對多個數據項的更新操作,因此需要根據自己的業務情況進行測試,可能需要部署多個服務,每個服務分攤一些數據的更新操作。如果一個內存隊列裏積壓 100 個商品的庫存修改操作,每個庫存修改操作要耗費 10ms 去完成,那麼最後一個商品的讀請求,可能等待 10 * 100 = 1000ms = 1s 後,才能得到數據,這個時候就導致讀請求的長時阻塞。因此,一定要根據實際業務系統的運行情況,去進行一些壓力測試和模擬線上環境,去看看最繁忙的時候,內存隊列可能會積壓多少更新操作,可能會導致最後一個更新操作對應的讀請求,會 hang 多少時間。如果讀請求在 200ms 返回,如果你計算過後,哪怕是最繁忙的時候,積壓 10 個更新操作,最多等待 200ms,那還可以的。

如果一個內存隊列中可能積壓的更新操作特別多,那麼你就要加機器,讓每個機器上部署的服務實例處理更少的數據,那麼每個內存隊列中積壓的更新操作就會越少。

其實根據之前的項目經驗,一般來說,數據的寫頻率是很低的,因此實際上正常來說,在隊列中積壓的更新操作應該是很少的。像這種針對讀高併發、讀緩存架構的項目,一般來說寫請求是非常少的,每秒的 QPS 能到幾百就不錯了。實際粗略測算一下,如果一秒有 500 的寫操作,分成 5 個時間片,每 200ms 就 100 個寫操作,放到 20 個內存隊列中,每個內存隊列,可能就積壓 5 個寫操作。每個寫操作性能測試後,一般是在 20ms 左右就完成,那麼針對每個內存隊列的數據的讀請求,也就最多 hang 一會兒,200ms 以內肯定能返回了。經過剛纔簡單的測算,我們知道,單機支撐的寫 QPS 在幾百是沒問題的,如果寫 QPS 擴大了 10 倍,那麼就擴容機器,擴容 10 倍的機器,每個機器 20 個隊列。

3.2 讀請求併發量過高

這裏還必須做好壓力測試,確保恰巧碰上上述情況的時候,還有一個風險,就是突然間大量讀請求會在幾十毫秒的延時 hang 在服務上,看服務能不能扛的住,需要多少機器才能扛住最大的極限情況的峯值。

但是因爲並不是所有的數據都在同一時間更新,緩存也不會同一時間失效,所以每次可能也就是少數數據的緩存失效了,然後那些數據對應的讀請求過來,併發量應該也不會特別大。

針對大量讀少量寫 且只是簡單數據更新的情況可以將寫db和刪cache放一個事務中來簡化。

3.3 多服務實例部署的請求路由

可能這個服務部署了多個實例,那麼必須保證說,執行數據更新操作,以及執行緩存更新操作的請求,都通過 Nginx 服務器路由到相同的服務實例上。

比如說,對同一個商品的讀寫請求,全部路由到同一臺機器上。可以自己去做服務間的按照某個請求參數的 hash 路由,也可以用 Nginx 的 hash 路由功能等等。

3.4 熱點商品的路由問題,導致請求的傾斜

萬一某個商品的讀寫請求特別高,全部打到相同的機器的相同的隊列裏面去了,可能會造成某臺機器的壓力過大。

因爲只有在商品數據更新的時候纔會清空緩存,然後纔會導致讀寫併發,所以要根據業務系統去看,如果更新頻率不是太高的話,這個問題的影響並不是特別大,但是可能某些機器的負載會高一些。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章