请教一个大业务量下 logstash 处理效率和配置管理的问题

2017-08-22 13:19:13 +08:00
 iyaozhen
现在日志处理基本都 ELK,确实好用,但在实践中遇到一些问题。

logstash 接入(上游 filebeat 收集日志)的日志类型和数量都太多了,每一类日志都要有一个 filter(grok) 和 output(es 不同的 index,或者 kafka 不同的 topic)。

1. 随着业务增多配置文件如何管理?现在都在一个配置文件里,1k 多行了。😓
2. 随着日志量增大 logstash 处理能力更不上,数据延迟较大,如何解决?有什么集群方案吗?扩机器需要修改 filebeat 的配置,比较麻烦。

谢谢了
2710 次点击
所在节点    问与答
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/384819

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX