etcd 一次性插入大量数据导致超时

2021-11-08 18:28:42 +08:00
 kalista
数据量大概在一百万条,一开始是每次插入建立一个新连接,发现 put 操作超时,后面改成了 put 共用一个连接,在跑了两小时后仍然超时,想问下各位有没有比较好的办法做这个操作,还是说我应该想办法了解为什么超时,服务器间网络是没有问题的。
2080 次点击
所在节点    Go 编程语言
11 条回复
imherer
2021-11-08 18:31:07 +08:00
100w ?什么数据这么多数据,感觉这个不应该用 etcd 来做
kalista
2021-11-08 18:32:25 +08:00
@imherer 一言难尽,属于历史遗留问题了,现在版本又得想办法做这个操作
dallaslu
2021-11-08 18:32:43 +08:00
「 etcd (读作 et-see-dee )是一种开源的分布式统一键值存储,用于分布式系统或计算机集群的共享配置、服务发现和的调度协调」

一百多万条了,要不要试试别的吧
leonme
2021-11-08 18:38:15 +08:00
属于乱用中间件了……
hopingtop
2021-11-08 20:44:54 +08:00
一百万数据并不多的。如果在读场景少的情况下。 从节点不多的情况,一般不会出现这样的情况。
出现问题,主要是看 client 的使用方式是否有问题,还有就是 ETCD 的配置。如果是云服务,一般是大多数场景的最佳配置。特别注意一下 关于 ETCD 存储大小和压缩相关的设置
看看 client 端吧。 如果是基于 v2 版本的 HTTP , 也要注意一下 Request 包是否有什么问题。
还有就是每一个 KV ,V 是否过大?
如果会其他语言,可以试着换一种语言的 Client 试试
hopingtop
2021-11-08 20:45:45 +08:00
@hopingtop 这里只单纯讨论为什么可能出现超时,不讨论为什么要这么用 ETCD
mogging
2021-11-08 21:48:02 +08:00
是不是--max-request-bytes 用的是默认值
SmiteChow
2021-11-09 11:02:15 +08:00
etcd 也没想到自己被迫吃这么多 k-v

讲真,盲猜是一直在一个节点进行快速写入+内部节点同步导致 cpu 爆掉问题。
建议搞 pool ,把集群所有节点都连上,均匀写入以及控制写入频率。
luoqeng
2021-11-09 12:27:14 +08:00
etcd 是用来存 Meta 数据的
996635
2021-11-09 16:31:41 +08:00
检查 etcd 版本, 3.4 以后有优化
另外对于一个分布式系统来说, 并发写事务性能不会太高, 官方的 benchmark 是 10 万 KEY,QPS 有 33K, leader only 和 all members 差别还是蛮大的.
996635
2021-11-09 16:34:42 +08:00
建议先查 etcd server log, 看一下超时的原因再做优化

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/813952

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX