大数据量分页(海量数据分页)的高效实现

海量数据分页,已经无法使用数据库自带的分页机制,比如MySQL Limit ,这会导致严重的性能问题, 经过生产环境大数据量千万级数据量分页实现的 的总结,目前为止我 所使用 的大数据量分页机制 两条:

 

1. 如果表中存在 连续 的数字列并 索引,那么通过页码即可计算出此字段的范围,直接作范围查询即可:

start = (page-1)*pagesize

end = page*pagesize

select * from table where id >start and id <=end

 

2.  对大量数据旧的分页数据,实际上是固定的,变化的仅仅是前面数页。那么将旧数据导出成一个特殊表,直接以页码为索引列,即可快速分页。同时因为新数据不断填充到前面页,故内部页码使用倒序(即超旧的数据,其在数据库中的页码越小,越新的数据其页码不断增长)

 

成功案例:某健康社区门户问答功能的列表页,目前大约共 3000 万主题帖,每页显示 30 条记录,这样大约是 100 万页。将每页要显示的数据作成一个字段,页码 及科室两个字段作 主索引, 因为业务要求要按科室及页码列出主题,同时科室分类存在层次关系,属性子科室的主题,也需要显示在父科室列表中,这样列表的总记录数实际上是超过 3000万的,冗余度大约是 2.5 ,即有 7500 万条记录,每页显示 30 ,即总共大约有 250 万页。现在将数据表重新进行设计,每页要显示的数据,作为一条记录,这样此表仅仅就只有 250 万条记录,也就相当于 250 万条记录的数据表,可胜任 7500 万主题的分页需要。表结构大致如下:
page #当前记录的页码

classid #科室 id

data #当前页要显示的数据  原始主题记录 json 化或 php 序列化后的字符串

 

但此方案的问题就是数据更新及删除的同步问题。 建议是较新数据周期性(如每 4小时 )地重新整理,旧数据可使用较慢的周期(如每天)速度处理。同时删除帖子时应该先删除帖子内容,再 使用异步队列机制处理数据的同步和更新。 虽然带来维护上的麻烦,但有效地处理了大数据量分页显示的问题

 

列表页及帖子页,全部使用伪静态方式提供访问, 最长的内科列表页,已经达到了 30万页。

数据的存储使用三台Dell R610 机器存储,每次对列表页或帖子页的访问,均需要从 MySQL 查询。目前已经胜任每日约 9 00万次访问量。如果有任何疑惑,请联系 [email protected] 如果你有更好的办法,欢迎一起探讨。

猜你喜欢

转载自zhangxugg-163-com.iteye.com/blog/1677437