多級緩存的分層架構

前言

在互聯網高速發展的今天,緩存技術被廣泛地應用。無論業內還是業外,只要是提到性能問題,大家都會脫口而出“用緩存解決”。

這種說法帶有片面性,甚至是一知半解,但是作爲專業人士的我們,需要對緩存有更深、更廣的瞭解。

緩存技術存在於應用場景的方方面面。從瀏覽器請求,到反向代理服務器,從進程內緩存到分佈式緩存。其中緩存策略,算法也是層出不窮,今天就帶大家走進緩存。

正文

緩存對於每個開發者來說是相當熟悉了,爲了提高程序的性能我們會去加緩存,但是在什麼地方加緩存,如何加緩存呢?

假設一個網站,需要提高性能,緩存可以放在瀏覽器,可以放在反向代理服務器,還可以放在應用程序進程內,同時可以放在分佈式緩存系統中。

 從用戶請求數據到數據返回,數據經過了瀏覽器,CDN,代理服務器,應用服務器,以及數據庫各個環節。每個環節都可以運用緩存技術。

從瀏覽器/客戶端開始請求數據,通過 HTTP 配合 CDN 獲取數據的變更情況,到達代理服務器(Nginx)可以通過反向代理獲取靜態資源。

再往下來到應用服務器可以通過進程內(堆內)緩存,分佈式緩存等遞進的方式獲取數據。如果以上所有緩存都沒有命中數據,纔會回源到數據庫。

緩存的請求順序是:用戶請求 → HTTP 緩存 → CDN 緩存 → 代理服務器緩存 → 進程內緩存 → 分佈式緩存 → 數據庫。

看來在技術的架構每個環節都可以加入緩存,看看每個環節是如何應用緩存技術的。

1. HTTP緩存

當用戶通過瀏覽器請求服務器的時候,會發起 HTTP 請求,如果對每次 HTTP 請求進行緩存,那麼可以減少應用服務器的壓力。

當第一次請求的時候,瀏覽器本地緩存庫沒有緩存數據,會從服務器取數據,並且放到瀏覽器的緩存庫中,下次再進行請求的時候會根據緩存的策略來讀取本地或者服務的信息。

一般信息的傳遞通過 HTTP 請求頭 Header 來傳遞。目前比較常見的緩存方式有兩種,分別是:

  • 強制緩存

  • 對比緩存

1.1. 強制緩存

當瀏覽器本地緩存庫保存了緩存信息,在緩存數據未失效的情況下,可以直接使用緩存數據。否則就需要重新獲取數據。

這種緩存機制看上去比較直接,那麼如何判斷緩存數據是否失效呢?這裏需要關注 HTTP Header 中的兩個字段 Expires 和 Cache-Control。

Expires 爲服務端返回的過期時間,客戶端第一次請求服務器,服務器會返回資源的過期時間。如果客戶端再次請求服務器,會把請求時間與過期時間做比較。

如果請求時間小於過期時間,那麼說明緩存沒有過期,則可以直接使用本地緩存庫的信息。

反之,說明數據已經過期,必須從服務器重新獲取信息,獲取完畢又會更新最新的過期時間。

這種方式在 HTTP 1.0 用的比較多,到了 HTTP 1.1 會使用 Cache-Control 替代。

Cache-Control 中有個 max-age 屬性,單位是秒,用來表示緩存內容在客戶端的過期時間。

例如:max-age 是 60 秒,當前緩存沒有數據,客戶端第一次請求完後,將數據放入本地緩存。

那麼在 60 秒以內客戶端再發送請求,都不會請求應用服務器,而是從本地緩存中直接返回數據。如果兩次請求相隔時間超過了 60 秒,那麼就需要通過服務器獲取數據。

1.2. 對比緩存

需要對比前後兩次的緩存標誌來判斷是否使用緩存。瀏覽器第一次請求時,服務器會將緩存標識與數據一起返回,瀏覽器將二者備份至本地緩存庫中。瀏覽器再次請求時,將備份的緩存標識發送給服務器。

服務器根據緩存標識進行判斷,如果判斷數據沒有發生變化,把判斷成功的 304 狀態碼發給瀏覽器。

這時瀏覽器就可以使用緩存的數據來。服務器返回的就只是 Header,不包含 Body。

下面介紹兩種標識規則:

1.2.1. Last-Modified/If-Modified-Since 規則

在客戶端第一次請求的時候,服務器會返回資源最後的修改時間,記作 Last-Modified。客戶端將這個字段連同資源緩存起來。

Last-Modified 被保存以後,在下次請求時會以 Last-Modified-Since 字段被髮送。

 當客戶端再次請求服務器時,會把 Last-Modified 連同請求的資源一起發給服務器,這時 Last-Modified 會被命名爲 If-Modified-Since,存放的內容都是一樣的。

服務器收到請求,會把 If-Modified-Since 字段與服務器上保存的 Last-Modified 字段作比較:

  • 若服務器上的 Last-Modified 最後修改時間大於請求的 If-Modified-Since,說明資源被改動過,就會把資源(包括 Header+Body)重新返回給瀏覽器,同時返回狀態碼 200。

  • 若資源的最後修改時間小於或等於 If-Modified-Since,說明資源沒有改動過,只會返回 Header,並且返回狀態碼 304。瀏覽器接受到這個消息就可以使用本地緩存庫的數據。

 注意:Last-Modified 和 If-Modified-Since 指的是同一個值,只是在客戶端和服務器端的叫法不同。

1.2.2. ETag / If-None-Match 規則

客戶端第一次請求的時候,服務器會給每個資源生成一個 ETag 標記。這個 ETag 是根據每個資源生成的唯一 Hash 串,資源如何發生變化 ETag 隨之更改,之後將這個 ETag 返回給客戶端,客戶端把請求的資源和 ETag 都緩存到本地。

ETag 被保存以後,在下次請求時會當作 If-None-Match 字段被髮送出去。

 在瀏覽器第二次請求服務器相同資源時,會把資源對應的 ETag 一併發送給服務器。在請求時 ETag 轉化成 If-None-Match,但其內容不變。

服務器收到請求後,會把 If-None-Match 與服務器上資源的 ETag 進行比較:

  • 如果不一致,說明資源被改動過,則返回資源(Header+Body),返回狀態碼 200。

  • 如果一致,說明資源沒有被改過,則返回 Header,返回狀態碼 304。瀏覽器接受到這個消息就可以使用本地緩存庫的數據。

 注意:ETag 和 If-None-Match 指的是同一個值,只是在客戶端和服務器端的叫法不同。

2. CDN 緩存

HTTP 緩存主要是對靜態數據進行緩存,把從服務器拿到的數據緩存到客戶端/瀏覽器。

如果在客戶端和服務器之間再加上一層 CDN,可以讓 CDN 爲應用服務器提供緩存,如果在 CDN 上緩存,就不用再請求應用服務器了。並且 HTTP 緩存提到的兩種策略同樣可以在 CDN 服務器執行。

CDN 的全稱是 Content Delivery Network,即內容分發網絡。

 讓我們來看看它是如何工作的吧:

  • 客戶端發送 URL 給 DNS 服務器。

  • DNS 通過域名解析,把請求指向 CDN 網絡中的 DNS 負載均衡器。

  • DNS 負載均衡器將最近 CDN 節點的 IP 告訴 DNS,DNS 告之客戶端最新 CDN 節點的 IP。

  • 客戶端請求最近的 CDN 節點。

  • CDN 節點從應用服務器獲取資源返回給客戶端,同時將靜態信息緩存。注意:客戶端下次互動的對象就是 CDN 緩存了,CDN 可以和應用服務器同步緩存信息。

CDN 接受客戶端的請求,它就是離客戶端最近的服務器,它後面會鏈接多臺服務器,起到了緩存和負載均衡的作用。

3. 負載均衡緩存

說完客戶端(HTTP)緩存和 CDN 緩存,我們離應用服務越來越近了,在到達應用服務之前,請求還要經過負載均衡器。

雖說它的主要工作是對應用服務器進行負載均衡,但是它也可以作緩存。可以把一些修改頻率不高的數據緩存在這裏,例如:用戶信息,配置信息。通過服務定期刷新這個緩存就行了。

 以 Nginx 爲例,我們看看它是如何工作的:

  • 用戶請求在達到應用服務器之前,會先訪問 Nginx 負載均衡器,如果發現有緩存信息,直接返回給用戶。

  • 如果沒有發現緩存信息,Nginx 回源到應用服務器獲取信息。

  • 另外,有一個緩存更新服務,定期把應用服務器中相對穩定的信息更新到 Nginx 本地緩存中。

4. 進程內緩存

通過了客戶端,CDN,負載均衡器,我們終於來到了應用服務器。應用服務器上部署着一個個應用,這些應用以進程的方式運行着,那麼在進程中的緩存是怎樣的呢?

進程內緩存又叫託管堆緩存,以 Java 爲例,這部分緩存放在 JVM 的託管堆上面,同時會受到託管堆回收算法的影響。

由於其運行在內存中,對數據的響應速度很快,通常我們會把熱點數據放在這裏。

在進程內緩存沒有命中的時候,我們會去搜索進程外的緩存或者分佈式緩存。這種緩存的好處是沒有序列化和反序列化,是最快的緩存。缺點是緩存的空間不能太大,對垃圾回收器的性能有影響。

目前比較流行的實現有 Ehcache、GuavaCache、Caffeine。這些架構可以很方便的把一些熱點數據放到進程內的緩存中。

這裏我們需要關注幾個緩存的回收策略,具體的實現架構的回收策略會有所不同,但大致的思路都是一致的:

  • FIFO(First In First Out):先進先出算法,最先放入緩存的數據最先被移除。

  • LRU(Least Recently Used):最近最少使用算法,把最久沒有使用過的數據移除緩存。

  • LFU(Least Frequently Used):最不常用算法,在一段時間內使用頻率最小的數據被移除緩存。

在分佈式架構的今天,多應用中如果採用進程內緩存會存在數據一致性的問題。

這裏推薦兩個方案:

  • 消息隊列修改方案

  • Timer 修改方案

4.1. 消息隊列修改方案

應用在修改完自身緩存數據和數據庫數據之後,給消息隊列發送數據變化通知,其他應用訂閱了消息通知,在收到通知的時候修改緩存數據。

 4.2. Timer 修改方案

爲了避免耦合,降低複雜性,對“實時一致性”不敏感的情況下。每個應用都會啓動一個 Timer,定時從數據庫拉取最新的數據,更新緩存。

不過在有的應用更新數據庫後,其他節點通過 Timer 獲取數據之間,會讀到髒數據。這裏需要控制好 Timer 的頻率,以及應用與對實時性要求不高的場景。

 進程內緩存有哪些使用場景呢?

  • 場景一:只讀數據,可以考慮在進程啓動時加載到內存。當然,把數據加載到類似 Redis 這樣的進程外緩存服務也能解決這類問題。

  • 場景二:高併發,可以考慮使用進程內緩存,例如:秒殺。

5. 分佈式緩存

說完進程內緩存,自然就過度到進程外緩存了。與進程內緩存不同,進程外緩存在應用運行的進程之外,它擁有更大的緩存容量,並且可以部署到不同的物理節點,通常會用分佈式緩存的方式實現。

分佈式緩存是與應用分離的緩存服務,最大的特點是,自身是一個獨立的應用/服務,與本地應用隔離,多個應用可直接共享一個或者多個緩存應用/服務。

 既然是分佈式緩存,緩存的數據會分佈到不同的緩存節點上,每個緩存節點緩存的數據大小通常也是有限制的。

數據被緩存到不同的節點,爲了能方便的訪問這些節點,需要引入緩存代理,類似 Twemproxy。他會幫助請求找到對應的緩存節點。

同時如果緩存節點增加了,這個代理也會只能識別並且把新的緩存數據分片到新的節點,做橫向的擴展。

爲了提高緩存的可用性,會在原有的緩存節點上加入 Master/Slave 的設計。當緩存數據寫入 Master 節點的時候,會同時同步一份到 Slave 節點。

一旦 Master 節點失效,可以通過代理直接切換到 Slave 節點,這時 Slave 節點就變成了 Master 節點,保證緩存的正常工作。

每個緩存節點還會提供緩存過期的機制,並且會把緩存內容定期以快照的方式保存到文件上,方便緩存崩潰之後啓動預熱加載。

5.1. 高性能

當緩存做成分佈式的時候,數據會根據一定的規律分配到每個緩存應用/服務上。

如果我們把這些緩存應用/服務叫做緩存節點,每個節點一般都可以緩存一定容量的數據,例如:Redis 一個節點可以緩存 2G 的數據。

如果需要緩存的數據量比較大就需要擴展多個緩存節點來實現,這麼多的緩存節點,客戶端的請求不知道訪問哪個節點怎麼辦?緩存的數據又如何放到這些節點上?

緩存代理服務已經幫我們解決這些問題了,例如:Twemproxy 不但可以幫助緩存路由,同時可以管理緩存節點。

這裏有介紹三種緩存數據分片的算法,有了這些算法緩存代理就可以方便的找到分片的數據了。

5.1.1. 哈希算法

Hash 表是最常見的數據結構,實現方式是,對數據記錄的關鍵值進行 Hash,然後再對需要分片的緩存節點個數進行取模得到的餘數進行數據分配。

例如:有三條記錄數據分別是 R1,R2,R3。他們的 ID 分別是 01,02,03,假設對這三個記錄的 ID 作爲關鍵值進行 Hash 算法之後的結果依舊是 01,02,03。

我們想把這三條數據放到三個緩存節點中,可以把這個結果分別對 3 這個數字取模得到餘數,這個餘數就是這三條記錄分別放置的緩存節點。

 Hash 算法是某種程度上的平均放置,策略比較簡單,如果要增加緩存節點,對已經存在的數據會有較大的變動。

5.1.2. 一致性哈希算法

一致性 Hash 是將數據按照特徵值映射到一個首尾相接的 Hash 環上,同時也將緩存節點映射到這個環上。

如果要緩存數據,通過數據的關鍵值(Key)在環上找到自己存放的位置。這些數據按照自身的 ID 取 Hash 之後得到的值按照順序在環上排列。

 如果這個時候要插入一條新的數據其 ID 是 115,那麼就應該插入到如下圖的位置。

 同理如果要增加一個緩存節點 N4 150,也可以放到如下圖的位置。

 這種算法對於增加緩存數據,和緩存節點的開銷相對比較小。

5.1.3. Range Based 算法

這種方式是按照關鍵值(例如 ID)將數據劃分成不同的區間,每個緩存節點負責一個或者多個區間。跟一致性哈希有點像。

例如:存在三個緩存節點分別是 N1,N2,N3。他們用來存放數據的區間分別是,N1(0, 100], N2(100, 200], N3(300, 400]。

那麼數據根據自己 ID 作爲關鍵字做 Hash 以後的結果就會分別對應放到這幾個區域裏面了。

5.2. 可用性

根據事物的兩面性,在分佈式緩存帶來高性能的同時,我們也需要重視它的可用性。那麼哪些潛在的風險是我們需要防範的呢?

5.2.1. 緩存雪崩

當緩存失效,緩存過期被清除,緩存更新的時候。請求是無法命中緩存的,這個時候請求會直接回源到數據庫。

如果上述情況頻繁發生或者同時發生的時候,就會造成大面積的請求直接到數據庫,造成數據庫訪問瓶頸。我們稱這種情況爲緩存雪崩。

從如下兩方面來思考解決方案:

緩存方面:

  • 避免緩存同時失效,不同的 key 設置不同的超時時間。

  • 增加互斥鎖,對緩存的更新操作進行加鎖保護,保證只有一個線程進行緩存更新。緩存一旦失效可以通過緩存快照的方式迅速重建緩存。對緩存節點增加主備機制,當主緩存失效以後切換到備用緩存繼續工作。

設計方面,這裏給出了幾點建議供大家參考:

  • 熔斷機制:某個緩存節點不能工作的時候,需要通知緩存代理不要把請求路由到該節點,減少用戶等待和請求時長。

  • 限流機制:在接入層和代理層可以做限流,當緩存服務無法支持高併發的時候,前端可以把無法響應的請求放入到隊列或者丟棄。

  • 隔離機制:緩存無法提供服務或者正在預熱重建的時候,把該請求放入隊列中,這樣該請求因爲被隔離就不會被路由到其他的緩存節點。

  • 如此就不會因爲這個節點的問題影響到其他節點。當緩存重建以後,再從隊列中取出請求依次處理。

5.2.2. 緩存穿透

緩存一般是 Key,Value 方式存在,一個 Key 對應的 Value 不存在時,請求會回源到數據庫。

假如對應的 Value 一直不存在,則會頻繁的請求數據庫,對數據庫造成訪問壓力。如果有人利用這個漏洞攻擊,就麻煩了。

解決方法:如果一個 Key 對應的 Value 查詢返回爲空,我們仍然把這個空結果緩存起來,如果這個值沒有變化下次查詢就不會請求數據庫了。

將所有可能存在的數據哈希到一個足夠大的 Bitmap 中,那麼不存在的數據會被這個 Bitmap 過濾器攔截掉,避免對數據庫的查詢壓力。

5.2.3. 緩存擊穿

在數據請求的時候,某一個緩存剛好失效或者正在寫入緩存,同時這個緩存數據可能會在這個時間點被超高併發請求,成爲“熱點”數據。

這就是緩存擊穿問題,這個和緩存雪崩的區別在於,這裏是針對某一個緩存,前者是針對多個緩存。

解決方案:導致問題的原因是在同一時間讀/寫緩存,所以只有保證同一時間只有一個線程寫,寫完成以後,其他的請求再使用緩存就可以了。

比較常用的做法是使用 mutex(互斥鎖)。在緩存失效的時候,不是立即寫入緩存,而是先設置一個 mutex(互斥鎖)。當緩存被寫入完成以後,再放開這個鎖讓請求進行訪問。

小結

總結一下,緩存設計有五大策略,從用戶請求開始依次是:

  • HTTP 緩存

  • CDN 緩存

  • 負載均衡緩存

  • 進程內緩存

  • 分佈式緩存

其中,前兩種緩存靜態數據,後三種緩存動態數據:

  • HTTP 緩存包括強制緩存和對比緩存。

  • CDN 緩存和 HTTP 緩存是好搭檔。

  • 負載均衡器緩存相對穩定資源,需要服務協助工作。

  • 進程內緩存,效率高,但容量有限制,有兩個方案可以應對緩存同步的問題。

  • 分佈式緩存容量大,能力強,牢記三個性能算法並且防範三個緩存風險。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章