mongodump 出来的文件为什么比数据库本身大了一倍多?数据库大小只有 100GB, dump 出来的 bson 有 242GB,硬盘放不下了,怎么不占用硬盘空间备份数据到其它机器?

10 天前
 drymonfidelia
1001 次点击
所在节点    MongoDB
10 条回复
drymonfidelia
10 天前
补充:其它机器不在内网,延迟比较高,要比较高效的传输方式不能备份一次要一天那种
0576coder
10 天前
mount 挂载盘
drymonfidelia
10 天前
@0576coder 不在同内网,延迟太高
GeekGao
10 天前
mongodump --gzip --db your_database_name --out /path/to/output/directory
压缩试试
zuotun
10 天前
不如直接复制数据库文件到其他机器....
想要不占用本机硬盘, 要么挂载要么用管道符直接输出 (前提是你得保证网络速度和质量), 不清楚这么大的文件可不可以直接上管道符压缩, 但直接输出是没问题的.
Sum0l
9 天前
哈哈 楼上直接复制数据源文件的方法我几年前玩过,所有配置全都没变
drymonfidelia
9 天前
@Sum0l 这个系统全天高并发写入,直接复制不会损坏吗?
@zuotun
zuotun
9 天前
@drymonfidelia #7 那就先复制再传, 文件系统如果支持相同文件只占一份存储空间. 另外带宽够直接管道符弄就行了, 这种不会占用存储就怕网络断掉, 或者你想办法分割成多个压缩文件传掉一个删掉再导出下一个
YTMartian
9 天前
这是什么原理? mongodump 出来的是数据的纯 byte 形式吧,居然还会比原来的数据更大?
glacer
9 天前
在数据库里数据是压缩形式的吧,你 dump 出来肯定要大

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1051501

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX