关于 celery 强制 kill 中断后, flower 里丢失的任务仍然 STARTED

2019-05-08 21:08:14 +08:00
 akmonde

RT,我这边在测 celery 的意外容错的强健性的时候,我在每个 worker 强行执行了类似下面的命令:

ps -ef |grep 'worker' | grep -v grep|cut -c 9-16 | xargs kill -9

然后再将我手里的三个 worker 重启:

celery -A hellscan worker -E -l INFO -n xxx.%h --concurrency=2

在我的配置文件里,以前设置过:

TASK_REJECT_ON_WORKER_LOST = True
CELERY_ACKS_LATE = True

按理说是支持这种重启后,会继续加载运行任务的。结果我发现在日志里,worker 并没有失败或者结束。 在 flower 里查看,那几个中断的任务一直处于 STARTED 状态,强行 terminate 也没用。

而且似乎占用了我取得任务的名额,我这里设置--concurrency=2,按理说总共算起来,一共可以同时执行六个任务,flower 里显示的任务里 active 的也没有他们。

丢失了那三个任务,似乎现在只能同时执行三个任务了,

不知道大佬们有没有解决办法?除了重启 flower 以外,我猜这样任务丢失的可能会更多。

2729 次点击
所在节点    Python
2 条回复
jesnridy
2019-05-09 11:12:56 +08:00
flower 读得是 redis 的数据
akmonde
2019-05-09 12:52:35 +08:00
@jesnridy 不过我以前试过先清空 redis,flower 还是能看见数据的,说明有其他方式缓存。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/562325

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX