MySql千万级limit优化方案

经过实践,总结以下比较好的limit分页优化方案

1. 模仿百度、谷歌方案(前端业务控制)

类似于分段。我们给每次只能翻100页、超过一百页的需要重新加载后面的100页。这样就解决了每次加载数量数据大 速度慢的问题了

2. 记录每次取出的最大id, 然后where id > 最大id

select * from table_name Where id > 最大id limit 10000, 10;
这种方法适用于:除了主键ID等离散型字段外,也适用连续型字段datetime等
最大id由前端分页pageNum和pageIndex计算出来。

3. IN获取id

select * from table_name where id in (select id from table_name where ( user = xxx )) limit 10000, 10;

4. join方式 + 覆盖索引(推荐)

select * from table_name inner join ( select id from table_name where (user = xxx) limit 10000,10) b using (id)

如果对于有where 条件,又想走索引用limit的,必须设计一个索引,将where 放第一位,limit用到的主键放第2位,而且只能select 主键!

select id from test where pid = 1 limit 100000,10;
创建索引:alter table test add index idx_pid_id(pid, id)

扫描二维码关注公众号,回复: 8884272 查看本文章
发布了178 篇原创文章 · 获赞 28 · 访问量 8万+

猜你喜欢

转载自blog.csdn.net/sunct/article/details/90441965