大数据量下多线程并发写入 MariaDB 问题

2018-07-12 10:32:59 +08:00
 HiBoy23

在使用 kafka-storm-MariaDB 流程中,storm 计算后的数据量很大,最后需要入库到 MariaDB,有没有大神有什么好的方法可以减轻数据库压力,定时器五分钟执行一次,数据量大概五分钟有三千万左右,目前逻辑是正常 insert into 语句,Batch 数量为十万条 commit 一次。

1382 次点击
所在节点    数据库
2 条回复
abcbuzhiming
2018-10-15 09:31:18 +08:00
你这个数据量,1 小时就有 3 6000 0000 条数据,1 小时就 3 亿条了,兄弟别折腾 SQL 了,要么文档存储,要么大数据。这个量级折腾 sql 是不明智的
dezhou9
2019-01-03 14:07:51 +08:00
考虑一下自己实现 MySQL 引擎

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/470120

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX