MySql分頁查詢慢|這裏告訴你答案

背景

我們在開發的過程中使用分頁是不可避免的,通常情況下我們的做法是使用limit加偏移量:

select * from table where column=xxx order by xxx limit 1,20

當數據量比較小時(100萬以內),無論你翻到哪一頁,性能都是很快的。如果查詢慢,只要在

where條件和order by 的列上加上索引就可以解決。但是,當數據量大的時候(小編遇到的情況

是500萬數據),如果翻到最後幾頁,即使加了索引,查詢也是非常慢的,這是什麼原因導致的呢?我們該如何解決呢?

limit分頁原理

當我們翻到最後幾頁時,查詢的sql通常是:select * from table where column=xxx order by xxx limit 1000000,20

查詢非常慢。但是我們查看前幾頁的時候,速度並不慢。這是因爲limit的偏移量太大導致的。

MySql使用limit時的原理是(用上面的例子舉例):

  1. MySql將查詢出1000020條記錄。
  2. 然後舍掉前面的1000000條記錄。
  3. 返回剩下的20條記錄。

上述的過程是在《高性能MySql》書中確認的。

解決方案

解決的方法就是儘量使用索引覆蓋掃描,就是我們select後面檢出的是索引列,而不是

所有的列,而且這個索引的列最好是id。然後再做一次關聯查詢返回所有的列。

上述的sql可以寫成:

SELECT
	*
FROM
	table t
INNER JOIN (
	SELECT
		id
	FROM
		table
	WHERE
		xxx_id = 143381
	LIMIT 800000,20
) t1 ON t.id = t1.id

我們在mysql中做的真實的實驗:

image1

上圖是沒有優化過的sql,執行時間爲2s多。經過優化後如下:

image2

執行時間爲0.3s,性能有了大幅度的提升。雖然做了優化,但是隨着偏移量的增加,性能也會隨着下降,MySql官方雖然也給出了

其他的解決方案,但是在實際開發中很難使用。

有的同學可能會問,能不能使用IN嵌套子查詢,而不使用INNER JOIN的方式,答案是不可以,因爲MySql在子查詢中不能使用LIMIT

MySql分頁優化就先介紹到這裏了。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章