MySql中,LIMIT分页有什么优化方法?

limit存在问题:用limit查询几百万的数据会读取很慢。

解决办法:
1、子查询优化法:先找出第一条数据,然后大于等于这条数据的id就是要获取的数据。
  缺点:数据必须是连续的,可以说不能有where条件,where条件会筛选数据,
     导致数据失去连续性。

2、倒排表优化法:倒排表法类似建立索引,用一张表来维护页数,然后通过高效的连接得到数据。
 缺点:只适合数据固定的情况,数据不能删除。

3、反向查找优化法: 当偏移超过一半记录数的时候,先用排序,这样偏移就反转了。
 缺点:ORDER by优化比较麻烦,要增加索引,索引影响数据的修改效率,
   并且要知道总记录数,偏移大于数据的一半。

4、limit限制优化法:把limit偏移量限制低于某个数。

猜你喜欢

转载自blog.csdn.net/qq_42246139/article/details/80391033