怎么能上传大文件到 Linux 服务器?

2017-03-15 13:30:52 +08:00
 lovepim
最近单位遇到一个问题,需要把在公司内网的一个不太重要的业务系统,整体搬到云服务器上,文件大概有一百多个 G (包括源码和各种上传的文件),压缩完的话是 80 个 G 左右。
刚开始选的 windows 服务器,本来计划分片压缩,然后利用百度云上传下载到服务器(百度云单文件上传限制 10 个 G),后来发现 window 系统对业务系统的兼容性不太好。
所以近期考虑还是用 linux 服务器,但是问题来了,怎么上传这么大的文件到 linux ?既能保证传输速度,又不会出错。有没有遇到过同样问题的同学?
着急求解!苦恼好几天了。
2970 次点击
所在节点    问与答
11 条回复
Aliencn
2017-03-15 14:10:27 +08:00
我就不知道有啥可苦恼的,分片传呗
shoaly
2017-03-15 14:21:51 +08:00
一样啊, 80 个 g 拆分成 1g/个
然后批量检查一下 md5, 都没问题之后再解压缩
c0878
2017-03-15 14:26:56 +08:00
分块压缩然后用 rsync 同步
bearqq
2017-03-15 14:43:33 +08:00
没人提 ftp ?大文件传输很合适啊
strwei
2017-03-15 14:48:01 +08:00
git
clino
2017-03-15 14:48:41 +08:00
rsync -P
断点续传又会帮你分块验证
Tink
2017-03-15 14:49:29 +08:00
这不用 rsync ?
jarlyyn
2017-03-15 14:59:58 +08:00
rsync
BFDZ
2017-03-15 15:54:01 +08:00
FTP ,分卷压缩上传
lovepim
2017-03-15 16:01:58 +08:00
@clino @jarlyyn @c0878 多谢多谢,我试试。
lbtinglb
2018-05-09 04:00:37 +08:00
gitlfs

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/347600

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX