AWS S3 大量日志数据写入数据库方法

2023-03-18 14:28:04 +08:00
 Frankcox
最近要将 S3 的日志数据导出到自建 clickhouse ,日志都是统一格式,但是数据量很大。尝试使用 goroutine 并发读写,但是发现在请求数过多时,aws s3 client 会报 read: connection reset by peer 的异常,导致并发数上不去,光是一天的日志就要请求将近几十分钟,想知道有什么实现好办法?
709 次点击
所在节点    问与答
3 条回复
Frankcox
2023-03-18 14:53:49 +08:00
还有就是考虑如何同步数据,可以用代码监控,不知道 lambda 表达式能不能支持。
gtx990
2023-03-18 15:10:54 +08:00
replicate 到多个 bucket ,每个路径单独算 throttle 。

或者你这样,直接用 redshift (spectrum),直接 query s3 ,或者 load 到 redshift managed 的 s3 ,性能完全不比 clickhouse 差。
Frankcox
2023-03-18 17:06:16 +08:00
@gtx990 #2 性能倒不是特别关注的问题,这个活是老板给的,,,就是让把数据导到 clickhouse 。第一个能详细解释下吗

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/925084

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX