在上家用过一段时间的 filebeat 和 logstash
印象中使用方法是我们在日志中定义好日志格式,然后 filebeat 按照指定的格式去解析,然后 logstash 去
filebeat 拿数据传输到 Elasticsearch 。
那么
1.为什么传输到 Elasticsearch 要分两步走,为什么不直接 filebeat 或者 logstash 就好了?
2.filebeat 从日志文件中拿到的数据是存储在哪里呢? filebeat 安装的服务器的某个路径?路径是分布式?这个路径我
们可以自己指定?
3.如果发现日志数据没有传输到 Elasticsearch,排查问题的时候,应该如何排查 filebeat 和 logstash 的问题?思路应该
是怎么样子的呢?
4.最近面试被问到,有没有数据量大的问题?应该如何优化,解决?
希望大神们帮忙解答一下~
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.