redis 的 zset 如果打散成多个 zset 的话,如果要分页查询怎么处理呢?

2023-06-25 12:32:42 +08:00
 ben548
比如,为了避免 big key 问题将 zset 拆分成 zset1 、zset2 、zset3 ,如果要对这个 zset 做分页查询的话,怎么处理呢?
第一页是很容易的,比如一页 10 条,每一个 zset 都查出 top 10 然后合并排序一下即可
但是第二页和第三页却不能这么处理,因为直接从各个 zset 中获取排名 10 到 20 的 value ,来做排序合并得到的结果并不准确
能想到的一个方案是把所有的 zset 都合并成一个总的 zset 再来分页切割,但是感觉这样太耗费性能了,不是一个好的方案。
1985 次点击
所在节点    Redis
12 条回复
hangszhang
2023-06-25 13:13:33 +08:00
类似分库分表之后的分页问题,感觉得来个二级索引了
SakuraSa
2023-06-25 13:39:26 +08:00
每次查询上一页最后一个 item 的 score 之后的 10 个 item
lambdaq
2023-06-25 13:41:07 +08:00
如果你要做分页,已经输了一半了。
cylx3124
2023-06-25 13:42:13 +08:00
leogm9408leo
2023-06-25 13:51:15 +08:00
参考 elasticsearch 的分片处理逻辑,查 top10 就是每个分片取各自的 top10 然后再合并后取 top10 ,取 10-20 也还是每个分片各取 top20 然后合并后取出 10-20 ,这是搜索上的经典问题“深分页问题”,所以搜索引擎都不会允许访问分页太深。
ben548
2023-06-25 14:07:47 +08:00
@SakuraSa score 一样的情况不是会丢数据吗
ben548
2023-06-25 14:24:18 +08:00
@leogm9408leo 查 90-100 条,有 200 个分片的话,就要查出 20000 条数据出来排序后再分页,这有点伤啊
encro
2023-06-25 14:34:55 +08:00
@cylx3124

w3cschool 终于商业化改版了啊。。。。
SakuraSa
2023-06-25 15:02:29 +08:00
@ben548 那就定义一个不会重复的 score 呀,在原先的 score 上加上 id 的 hash 乘以一个很小的数之类的
SakuraSa
2023-06-25 15:07:36 +08:00
@ben548 以 score 排序,但是又存在 score 相同的情况,实际上相当于排序还依赖了插入顺序,这不是一个好的设计
Dlin
2023-06-25 15:44:21 +08:00
不知是不是我没看懂,我感觉除了全局视野法和业务折衷法之模糊法没问题外,其他两种问题都有问题,都需要前提条件:数据被排序的字段均匀分布且不可重复
Dlin
2023-06-25 15:45:01 +08:00
@cylx3124 不知是不是我没看懂,我感觉除了全局视野法和业务折衷法之模糊法没问题外,其他两种问题都有问题,都需要前提条件:数据被排序的字段均匀分布且不可重复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/951425

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX