mongodb大数据量分页查询效率问题

最常见的分页采用的是skip+limit这种组合方式,这种方式对付小数据倒也可以,但是对付上几百上千万的大数据,只能力不从心,skip如果跳过大量的数据会很慢,并且会越查越慢。

//代码大概看下意思就行了
const list = db.getCollection('sent_logs').count({
	field_1: 'wx5dacee99764a8af5'
}).skip(200).limit(10);

针对这一情况,可以通过条件查询+排序+限制返回记录,即 边查询,边排序,排序之后,抽取上一页中的最后一条记录,作为当前分页的查询条件,从而避免了skip效率低下的问题。

db.getCollection('sent_logs').find({
	field_1: 'wx5dacee99764a8af5',
	key1:{$gt: '#上一条记录的排序值#'}
}).limit(20)

不过在项目使用过程中,发现后面的数据基本没有用,所以用了一个阉割版的办法,如果条目数大于特定值 比如5000条,则只返回前5000条,否则返回全部,即只能查看前5000条;
再想看更多结果的话 就得用缩小插叙范围来解决了:

//代码大概看下意思就行了
const total_count = 5000;
const list = db.getCollection('sent_logs').find({
	field_1: 'wx5dacee99764a8af5'
}).skip(5000).limit(1);

if (list.length === 0) {
	total_count = db.getCollection('sent_logs').count({
		field_1: 'wx5dacee99764a8af5'
	})
}

这个方法虽然多了一次数据库查询,但是对于几十万往上的查询结果分页来说,提升的性能还是很客观的

猜你喜欢

转载自blog.csdn.net/julywind1/article/details/82556425