类似阿里云几年过期的订单过期通知的实现思路?

2021-04-16 16:37:46 +08:00
 winRain

如题,对阿里云上的机器订单,过期前通知用户。怎么做到即使处理大量用户订单通知,也能做到足够的准确呢?如果用消息队列的延时队列的话,消息堆积了怎么处理?如果用定时任务的话,服务器的 CPU 顶得住吗?

2469 次点击
所在节点    程序员
7 条回复
securityCoding
2021-04-16 17:40:42 +08:00
有意思这个问题,说说我的想法:
- 过期时间可能很长,延迟消息没有那么大的时间维度
总体思路是: 定时任务+多次延时消息
1. 假设过期时间为 30 天,在 20 天以前采用定时任务扫描的方式检查是否到了消息投递周期,如果剩余时间小于 10 天,则开始投递到消息队列,假如消息队列最大延时时间为 7 天,则第一投递延时 7 天,之后不断实时计算缩小延时,直到达到阈值开始真正消费

- 消息堆积
这是个比较通用的问题场景
1. 首先排查消费代码性能,优化到最佳性能
2. 场景允许的话采用批量拉取,批量消费
3. 水平扩充消费组实例
4. 使用消息队列两个指标一定要关注 , 消息投递耗时和消费耗时


至于你说的 cpu 压力大,这个不是问题,你应该问你的 db 扛得住吗 233
night98
2021-04-16 18:01:40 +08:00
分区域分片进行就行,剩下的就是按楼上老哥的说法,提前一天跑个批就行了,然后扔 mq 里面等处理就完事了,延迟时间也就一天左右,消费的话也没啥会阻塞的,直接关机器清理资源,这些都可以异步。
qxqsxbd
2021-04-16 18:16:11 +08:00
每天跑一遍定时任务,检查所有人的过期时间,过期时间在 24 小时(或者某个特定时间)内的创建一个新的定时任务
winRain
2021-04-16 19:38:27 +08:00
多谢各位的建议,我看了一些帖子之后也有了自己的一个想法。那就是添加任务的时候,对当前年月日分别进行 hash,然后组装在一起,作为记录的一个字段。然后以一个定时任务,每日按刚才的字段去查询,将当日的任务放到不同的队列上去消费。
ch2
2021-04-16 21:34:48 +08:00
那个通知又不是卡点的,误差个几分钟几十分钟几小时都行
skybrown
2021-04-17 20:24:49 +08:00
优先队列?
kerro1990
2021-04-17 21:46:06 +08:00
时间戳排序就行了,先过期的排前面,然后分批处理

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/771125

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX