批量吞吐数据, 用 redis 合适么

2021-12-23 23:15:21 +08:00
 DinoStray

我们大概 40w 条数据, 500M 的样子.
每一条数据都是实时更新的.
我每分钟全量写入 redis 一次, 然后发通知给其他业务组, 他们收到通知就全量读一次。 这种方式合理么? 有什么改进方案推荐?
使用 redis 主要还是希望双方节藕

1260 次点击
所在节点    问与答
6 条回复
kaikai5601
2021-12-23 23:28:37 +08:00
mq
liprais
2021-12-23 23:29:55 +08:00
用 kafka 实时处理不就完了
ch2
2021-12-23 23:38:44 +08:00
你买过云计算的 redis ,就知道他们会限制内存吞吐量的
mineralsalt
2021-12-23 23:56:46 +08:00
典型的消息队列应用场景, 这种用 redis 是不明智的, 也不优雅
pi1ot
2021-12-24 00:16:11 +08:00
scp ,rsync
Jooooooooo
2021-12-24 00:27:57 +08:00
为啥不直接发 kafka, 这还过一道 redis 有点多此一举.

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/824111

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX