千万用户推荐去重算法

2018-04-29 23:57:49 +08:00
 luger1990

先不考虑推荐算法。如果我有 1KW 个用户,需要把一百万个短视频推荐给用户,并且不能重复推荐。我该用什么方法来达到这个目的。

reids 的 bitmap 去重的话确实很省空间,但是一个用户如果只看了一个视频我就得给用户在 redis 中分配一个固定大小的存储,那 1KW 个对象也是很大的存储空间,布隆过滤器同样如此

或者说我给用户推荐过的放到一个 set 里面或者 hash 里面,每次推荐的时候从推荐池子里拿 1000 个通过和 redis 中已推荐过的内容对比如果没有推荐那么推荐 推荐过的就 continue 感觉这样很 low 呀。。。

还有没有更好的解决方案!!

9715 次点击
所在节点    算法
23 条回复
luger1990
2018-06-09 11:36:13 +08:00
解决问题了,最后选用的是布隆过滤器。
kalman03
2018-11-15 17:30:39 +08:00
@luger1990 详细点的流程呢?
qicmsg
2020-01-21 20:57:09 +08:00
@luger1990 能详细说下怎样取数据的逻辑吗?如何从库里取出未浏览数据呢?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/450968

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX