MYSQL 数据库容量有 100G 多(不含索引),准备复制且只拿其中一部分(50G)迁移到迁移到新机器

2019-10-23 10:54:48 +08:00
 caiem

考虑方案: 1.使用数据库备份工具 mydumper,loader,syncer.但是就没办法区分里面数据,等于全量复制,需要迁移后再删除那些不需要的数据; 2.写程序拷贝查询插入到新数据库,这里面的网络开销和时长恐怕是很大的,不符合速度要求和数据一致性(旧数据不能停机,期间会一致有数据写入)

大家有啥方法推荐呢

2107 次点击
所在节点    数据库
11 条回复
xhcnb
2019-10-23 10:57:43 +08:00
100G 而已, 建议使用 binlog 全量复制后再删除
liyer
2019-10-23 11:02:03 +08:00
Ctrl-x, Ctrl-v
Kettle
DsuineGP
2019-10-23 11:04:43 +08:00
binlog 订阅吧
从头开始同步 binlog,只抽取你需要的表,或者抽取了一定数据量数据后就停止订阅
比如 ali 的 canal 这类工具
lenmore
2019-10-23 11:27:23 +08:00
搭从库
用参数 replicate-do-table 或 replicate-wild-do-table 限制要同步的表
在从库把不需要的表删掉
切换时先停掉应用,断开同步,改应用的数据库 IP
CivAx
2019-10-23 11:31:39 +08:00
mysqldump 可以只抽取单张表,innobackupex 应该也可以(不确定)

阿里云有 DTS,可以从非阿里云的数据库迁移到非阿里云的数据库,迁移过程可以自选迁移的表,但是无法迁移事件。
EastLord
2019-10-23 11:32:40 +08:00
logstash
caiem
2019-10-23 11:40:03 +08:00
@DsuineGP canal 可以第一步的全量备份同步么,光增量 binlog 消费不满足哦
caiem
2019-10-23 11:41:17 +08:00
@lenmore 表是全部都要同步的,表里有字段区分哪些数据需要同步,这是难点
DsuineGP
2019-10-23 11:48:28 +08:00
@caiem 支持增量同步必然会支持全量备份嘛,无非是 binlog position 从 0 开始还是从最新开始的区别.
我觉得你可以先离线备份恢复,然后从备份的最后一个 position 开始增量同步
laminux29
2019-10-23 15:34:57 +08:00
楼上所有人都在胡说八道。

而且楼主这种需求根本不合理,因为这种需求,等于要把整个架构全部推翻重新设计。
tomczhen
2019-10-23 15:51:59 +08:00
订阅 binlog 数据一致性是可以保证的,但是要求按条件过滤掉一些数据,那么这个一致性应该是属于业务上的要求。逻辑复制虽然可以做到差异复制,但是业务数据的一致性如何处理还是需要干预,理解没有偏差的话,单纯依靠同步类工具应该是无法实现的。

感觉更像是 ETL 需求。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/612017

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX