关于 kafka 集群的问题

269 天前
 ITdream

kafka 集群,有 3 台机器,01 、02 、03 持续处理消息一小时后,只有 01 机器 kafka-logs 目录在持续增长,另外两台机器却无变化,但是运行是正常的,请问这是正常的吗? 昨晚压测过程中,01 机器磁盘撑满宕机了,整个 kafka 集群就都不消费了,这种该如何处理,请大佬指教

982 次点击
所在节点    服务器
8 条回复
Shawns
269 天前
估计 topic 没做分区或者分区不均
la2la
269 天前
1. 检查一下 Topic 分区分布
2. 设置合理的 Topic 过期方式
someday3
269 天前
先检查一楼提的,然后把结果补充上来再讨论。
ITdream
269 天前
@Shawns 总共 6 个消费者,每个消费者线程数为 spring.kafka.consumer.concurrency = 5 ,分区设置 num.partitions=30 ,代码配置如下

@KafkaListener(
groupId = "${spring.application.name}",
topics = Queue.Topic.PROPERTY_REPORT,
concurrency = "#{'${spring.kafka.consumer.concurrency:1}'}",
batch = "true")
ITdream
269 天前
@la2la 之前是 1 小时清理数据,现在改成 15 分钟清理,但未生效,配置如下

log.retention.minutes=15
log.segment.bytes=1073741824
log.cleaner.delete.retention.ms=300000
log.cleaner.backoff.ms=300000
Shawns
269 天前
@ITdream 和消费端没啥关系。要看 topic 创建时参数或者系统配置。你是开发吧,如果是你们自己搞的集群,看下官方文档或者搜索最佳实践,不是你们搞的,找交付的人看下。
mingxulin
269 天前
生产者写入数据不均,让研发一下数据写入策略
mingxulin
269 天前
如果不想解决数据写入不均的情况,可以设置 delete.retention.ms

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/980092

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX