由分庫分頁問題的解決方式聯想到elasticsearch深度翻頁&scroll search_after問題

1. 分庫分頁問題詳細參考鏈接:

https://mp.weixin.qq.com/s?__biz=MjM5ODYxMDA5OQ==&mid=2651959942&idx=1&sn=e9d3fe111b8a1d44335f798bbb6b9eea&chksm=bd2d075a8a5a8e4cad985b847778aa83056e22931767bb835132c04571b66d5434020fd4147f&mpshare=1&scene=23&srcid=05313jMsVT3zyHFn2DcX4PLU#rd

es深度翻頁參考說明鏈接:

https://www.jianshu.com/p/91d03b16af77

**************************************以下爲複製原文***********************************************************************

一、需求緣起

分頁需求

互聯網很多業務都有分頁拉取數據的需求,例如:

1)微信消息過多時,拉取第N頁消息

2)京東下單過多時,拉取第N頁訂單

3)瀏覽58同城,查看第N頁帖子

 

這些業務場景對應的消息表,訂單表,帖子表分頁拉取需求有這樣一些特點:

1有一個業務主鍵id, 例如msg_idorder_idtiezi_id

2)分頁排序是按照非業務主鍵id來排序的,業務中經常按照時間time來排序order by

 

在數據量不大時,可以通過在排序字段time上建立索引,利用SQL提供的offset/limit功能就能滿足分頁查詢需求

select * from t_msg order by time offset 200 limit 100

select * from t_order order by time offset 200 limit 100

select * from t_tiezi order by time offset 200 limit 100

此處假設一頁數據爲100條,均拉取第3頁數據。

 

分庫需求

高併發大流量的互聯網架構,一般通過服務層來訪問數據庫,隨着數據量的增大,數據庫需要進行水平切分,分庫後將數據分佈到不同的數據庫實例(甚至物理機器)上,以達到降低數據量,增加實例數的擴容目的。

 

一旦涉及分庫,逃不開“分庫依據”patition key的概念,使用哪一個字段來水平切分數據庫呢:大部分的業務場景,會使用業務主鍵id

 

確定了分庫依據patition key後,接下來要確定的是分庫算法:大部分的業務場景,會使用業務主鍵id取模的算法來分庫,這樣即能夠保證每個庫的數據分佈是均勻的,又能夠保證每個庫的請求分佈是均勻的,實在是簡單實現負載均衡的好方法,此法在互聯網架構中應用頗多。

 

舉一個更具體的例子:

用戶庫user,水平切分後變爲兩個庫,分庫依據patition keyuid,分庫算法是uid取模:uid%20的數據會落到db0uid%21的數據會落到db1

 

問題的提出

仍然是上述用戶庫的例子,如果業務要查詢“最近註冊的第3頁用戶”,該如何實現呢?單庫上,可以

select * from t_user order by time offset 200 limit 100

變成兩個庫後,分庫依據是uid,排序依據是time,數據庫層失去了time排序的全局視野,數據分佈在兩個庫上,此時該怎麼辦呢?

 

如何滿足“跨越多個水平切分數據庫,且分庫依據與排序依據爲不同屬性,並需要進行分頁”的查詢需求,實現 select * from T order by time offset X limit Y的跨庫分頁SQL,是本文將要討論的技術問題

 

二、全局視野法

如上圖所述,服務層通過uid取模將數據分佈到兩個庫上去之後,每個數據庫都失去了全局視野,數據按照time局部排序之後,不管哪個分庫的第3頁數據,都不一定是全局排序的第3頁數據。

 

那到底哪些數據纔是全局排序的第3頁數據呢,暫且分三種情況討論。

 

1極端情況兩個庫的數據完全一樣

如果兩個庫的數據完全相同,只需要每個庫offset一半,再取半頁,就是最終想要的數據(如上圖中粉色部分數據)。

 

2極端情況結果數據來自一個庫

也可能兩個庫的數據分佈及其不均衡,例如db0的所有數據的time都大於db1的所有數據的time,則可能出現:一個庫的第3頁數據,就是全局排序後的第3頁數據(如上圖中粉色部分數據)。

 

3一般情況每個庫數據各包含一部分

正常情況下,全局排序的第3頁數據,每個庫都會包含一部分(如上圖中粉色部分數據)。

 

由於不清楚到底是哪種情況,所以必須每個庫都返回3頁數據,所得到的6頁數據在服務層進行內存排序,得到數據全局視野,再取第3頁數據,便能夠得到想要的全局分頁數據。

 

再總結一下這個方案的步驟:

1)將order by time offset X limit Y,改寫成order by time offset 0 limit X+Y

2)服務層將改寫後的SQL語句發往各個分庫:即例子中的各取3頁數據

3)假設共分爲N個庫,服務層將得到N*(X+Y)條數據:即例子中的6頁數據

4)服務層對得到的N*(X+Y)條數據進行內存排序,內存排序後再取偏移量X後的Y條記錄,就是全局視野所需的一頁數據

 

方案優點:通過服務層修改SQL語句,擴大數據召回量,能夠得到全局視野,業務無損,精準返回所需數據。

 

方案缺點(顯而易見):

1)每個分庫需要返回更多的數據,增大了網絡傳輸量(耗網絡);

2)除了數據庫按照time進行排序,服務層還需要進行二次排序,增大了服務層的計算量(CPU);

3)最致命的,這個算法隨着頁碼的增大,性能會急劇下降,這是因爲SQL改寫後每個分庫要返回X+Y行數據:返回第3頁,offset中的X=200;假如要返回第100頁,offset中的X=9900,即每個分庫要返回100頁數據,數據量和排序量都將大增,性能平方級下降。

 

三、業務折衷法

“全局視野法”雖然性能較差,但其業務無損,數據精準,不失爲一種方案,有沒有性能更優的方案呢?

 

任何脫離業務的架構設計都是耍流氓”,技術方案需要折衷,在技術難度較大的情況下,業務需求的折衷能夠極大的簡化技術方案

 

業務折衷一:禁止跳頁查詢

在數據量很大,翻頁數很多的時候,很多產品並不提供“直接跳到指定頁面”的功能,而只提供“下一頁”的功能,這一個小小的業務折衷,就能極大的降低技術方案的複雜度。

如上圖,不夠跳頁,那麼第一次只能夠查第一頁:

1)將查詢order by time offset 0 limit 100,改寫成order by time where time>0 limit 100

2)上述改寫和offset 0 limit 100的效果相同,都是每個分庫返回了一頁數據(上圖中粉色部分);

3)服務層得到2頁數據,內存排序,取出前100條數據,作爲最終的第一頁數據,這個全局的第一頁數據,一般來說每個分庫都包含一部分數據(如上圖粉色部分);

 

咦,這個方案也需要服務器內存排序,豈不是和“全局視野法”一樣麼?第一頁數據的拉取確實一樣,但每一次“下一頁”拉取的方案就不一樣了

 

點擊“下一頁”時,需要拉取第二頁數據,在第一頁數據的基礎之上,能夠找到第一頁數據time的最大值:

這個上一頁記錄的time_max,會作爲第二頁數據拉取的查詢條件

1)將查詢order by time offset 100 limit 100,改寫成order by time where time>$time_max limit 100

2)這下不是返回2頁數據了(“全局視野法,會改寫成offset 0 limit 200”),每個分庫還是返回一頁數據(如上圖中粉色部分);

3)服務層得到2頁數據,內存排序,取出前100條數據,作爲最終的第2頁數據,這個全局的第2頁數據,一般來說也是每個分庫都包含一部分數據(如上圖粉色部分);

 

如此往復,查詢全局視野第100頁數據時,不是將查詢條件改寫爲offset 0 limit 9900+100返回100頁數據),而是改寫爲time>$time_max99 limit 100仍返回一頁數據),以保證數據的傳輸量和排序的數據量不會隨着不斷翻頁而導致性能下降

 

業務折衷二:允許數據精度損失

“全局視野法”能夠返回業務無損的精確數據,在查詢頁數較大,例如第100頁時,會有性能問題,此時業務上是否能夠接受,返回的100頁不是精準的數據,而允許有一些數據偏差呢?

 

數據庫分庫-數據均衡原理

使用patition key進行分庫,在數據量較大,數據分佈足夠隨機的情況下,各分庫所有非patition key屬性,在各個分庫上的數據分佈,統計概率情況是一致的

 

例如,在uid隨機的情況下,使用uid取模分兩庫,db0db1

1性別屬性,如果db0庫上的男性用戶佔比70%,則db1上男性用戶佔比也應爲70%

2年齡屬性,如果db0庫上18-28歲少女用戶比例佔比15%,則db1上少女用戶比例也應爲15%

3時間屬性,如果db0庫上每天10:00之前登錄的用戶佔比爲20%,則db1上應該是相同的統計規律

 

利用這一原理,要查詢全局100頁數據,offset 9900 limit 100改寫爲offset 4950 limit 50,每個分庫偏移4950(一半),獲取50條數據(半頁),得到的數據集的並集,基本能夠認爲,是全局數據的offset 9900 limit 100的數據,當然,這一頁數據的精度,並不是精準的。

 

根據實際業務經驗,用戶都要查詢第100頁網頁、帖子、郵件的數據了,這一頁數據的精準性損失,業務上往往是可以接受的,但此時技術方案的複雜度便大大降低了,既不需要返回更多的數據,也不需要進行服務內存排序了。

 

四、終極武器-二次查詢法

有沒有一種技術方案,即能夠滿足業務的精確需要,無需業務折衷,又高性能的方法呢?這就是接下來要介紹的終極武器:“二次查詢法”。

 

爲了方便舉例,假設一頁只有5條數據,查詢第200頁的SQL語句爲select * from T order by time offset 1000 limit 5;

 

步驟一:查詢改寫

select * from T order by time offset 1000 limit 5

改寫爲select * from T order by time offset 500 limit 5

並投遞給所有的分庫,注意,這個offset500,來自於全局offset的總偏移量1000,除以水平切分數據庫個數2

 

如果是3個分庫,則可以改寫爲select * from T order by time offset 333 limit 5

假設這三個分庫返回的數據(time, uid)如下:

可以看到,每個分庫都是返回的按照time排序的一頁數據。

 

步驟二:找到所返回3頁全部數據的最小值

第一個庫,5條數據的time最小值是1487501123

第二個庫,5條數據的time最小值是1487501133

第三個庫,5條數據的time最小值是1487501143

故,三頁數據中,time最小值來自第一個庫,time_min=1487501123,這個過程只需要比較各個分庫第一條數據,時間複雜度很低

 

步驟三:查詢二次改寫

第一次改寫的SQL語句是select * from T order by time offset 333 limit 5

第二次要改寫成一個between語句between的起點是time_minbetween的終點是原來每個分庫各自返回數據的最大值:

第一個分庫,第一次返回數據的最大值是1487501523

所以查詢改寫爲select * from T order by time where time between time_min and 1487501523

 

第二個分庫,第一次返回數據的最大值是1487501323

所以查詢改寫爲select * from T order by time where time between time_min and 1487501323

 

第三個分庫,第一次返回數據的最大值是1487501553

所以查詢改寫爲select * from T order by time where time between time_min and 1487501553

 

相對第一次查詢,第二次查詢條件放寬了,故第二次查詢會返回比第一次查詢結果集更多的數據,假設這三個分庫返回的數據(time, uid)如下:

可以看到:

由於time_min來自原來的分庫一,所以分庫一的返回結果集和第一次查詢相同(所以其實這次訪問是可以省略的);

分庫二的結果集,比第一次多返回了1條數據,頭部的1條記錄(time最小的記錄)是新的(上圖中粉色記錄);

分庫三的結果集,比第一次多返回了2條數據,頭部的2條記錄(time最小的2條記錄)是新的(上圖中粉色記錄);

 

步驟四:在每個結果集中虛擬一個time_min記錄,找到time_min在全局的offset

在第一個庫中,time_min在第一個庫的offset333

在第二個庫中,(1487501133, uid_aa)offset333(根據第一次查詢條件得出的),故虛擬time_min在第二個庫的offset331

在第三個庫中,(1487501143, uid_aaa)offset333(根據第一次查詢條件得出的),故虛擬time_min在第三個庫的offset330

 

綜上,time_min在全局的offset333+331+330=994

 

步驟五:既然得到了time_min在全局的offset,就相當於有了全局視野,根據第二次的結果集,就能夠得到全局offset 1000 limit 5的記錄

第二次查詢在各個分庫返回的結果集是有序的,又知道了time_min在全局的offset994,一路排下來,容易知道全局offset 1000 limit 5的一頁記錄(上圖中黃色記錄)。

 

是不是非常巧妙?這種方法的優點是:可以精確的返回業務所需數據,每次返回的數據量都非常小,不會隨着翻頁增加數據的返回量


不足是:需要進行兩次數據庫查詢


********************************對es深度翻頁問題思考*************************

es來說每個分片即相當於上述鏈接中的一個庫,es對翻頁問題解決思路與上文相同。

解決的四種方式:

方法一:全局視野法

(1)將order by time offset X limit Y,改寫成order by time offset 0 limit X+Y

(2)服務層對得到的N*(X+Y)條數據進行內存排序,內存排序後再取偏移量X後的Y條記錄

這種方法隨着翻頁的進行,性能越來越低。

點評:

該方式是es目前採用的方式,分別向N個分片發送請求,X代表開始位置,Y代表每頁的條數,獲取前X+Y條數據。在獲取完畢後,對N*(X+Y)條數據進行排序。缺點是隨着翻頁進行,越來越消耗內存,性能越來越差。

舉例:共五個分片,每頁有20條數據,查詢第100頁的數據.相當於查詢從offset=20*100=2000個數據開始後的20條。

則每個分片需要先獲取100*20+20=2020條數據

對五個分片的全部數據進行排序:5*2020=100100條數據排序,找到第2000條數據所處的位置,取20條。剩餘數據全部拋棄。

方法二:業務折衷法-禁止跳頁查詢

(1)用正常的方法取得第一頁數據,並得到第一頁記錄的time_max

(2)每次翻頁,將order by time offset X limit Y,改寫成order by time where time>$time_max limit Y,以保證每次只返回一頁數據,性能爲常量。

 點評:詳細參考說明:https://www.jianshu.com/p/91d03b16af77

    Es執行scroll查詢時,如果不排序則在各個分片上一邊查詢一邊吐數據即可。

方案二是在排序場景下,es所採用的search_after以及scroll查詢解決方式。以共五個分片,每次查詢20條數據爲例,按id正序排序爲例。第一次查詢的結果得到id最大值假設爲78Es將上次查詢結果的最大值,作爲下一次批量查詢的條件,再次查詢則下次查詢時,查詢條件加上id>78即可。以此類推,這樣協處理節點向每個分片發送的請求量只需要爲20即可,避免像深度翻頁一樣需要一次提交大量請求。

 

方法三:業務折衷法-允許模糊數據

(1)將order by time offset X limit Y,改寫成order by time offset X/N limit Y/N

點評:忽略

方法四:二次查詢法

(1)將order by time offset X limit Y,改寫成order by time offset X/N limit Y

(2)找到最小值time_min

(3)between二次查詢,order by time between $time_min and $time_i_max

(4)設置虛擬time_min,找到time_min在各個分庫的offset,從而得到time_min在全局的offset

(5)得到了time_min在全局的offset,自然得到了全局的offset X limit Y

點評:

步驟12的作用在於找到最小值time_min,偏移量在X/N,對es來說該步驟在建立在列式存儲的結構中【time列式存儲,已經排好序】速度很快,可以迅速返回。

步驟3二次查詢的範圍是 order by time between time_min and time_i_max

 

假設time_min在分庫1,其他分庫返回的結果量爲:分庫比time_min大的結果數量+size,

極端情況下,其他分庫的結果都比time_min大,

那麼其他庫返回的結果最大數據量爲X/N+sizeN爲常數,則x越大,返回的結果集越大,需要在步驟5中彙總排序的量就越大。極端情況下需要彙總排序的量爲


假如偏移量x10億分片個數爲3,分頁大小爲5,深度翻頁需要排序的量爲(3-1*10/3+5+5=6.7億。

因此即使採用這種方式,在數據分佈極其不均勻的情況下,進行深度翻頁,一次進行彙總排序總量也是非常大的。推測這也是es不採用這種方式來進行深度翻頁的原因。




發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章