服务器间拷贝文件 大家有什么好用的工具推荐吗

2018-10-13 10:19:58 +08:00
 fangyh09

环境: 我本地 macOS 系统 local, 远程服务器 s1, s2, s3

需求: s1 s2 s3 之间文件互相拷贝

之前我用的是 scp, 但是每天都需要敲蛮长的命令

有什么 gui 工具可以直接把 s1 的文件拖到 s2 上吗,现在找到的工具是 local 可以和 s1 文件互拖

8808 次点击
所在节点    Linux
65 条回复
nosay
2018-10-13 10:51:30 +08:00
termius 的 sftp 可以满足需求,但是价格不菲.
hshpy
2018-10-13 11:00:55 +08:00
alias zsh 自动捕全
hshpy
2018-10-13 11:08:03 +08:00
错了,忽略。
liangzi
2018-10-13 11:12:28 +08:00
rsync 有个 --include-from=file.list 你写好了 file.list 内容 脚本自动同步 即使有变化也只是改 file.list 里面内容
weyou
2018-10-13 11:24:57 +08:00
syncthing
falcon05
2018-10-13 11:26:24 +08:00
filezilla 可以 sftp 传
diggerdu
2018-10-13 11:26:31 +08:00
不用搞得这么复炸 sshfs
cabing
2018-10-13 11:30:28 +08:00
nc 命令很方便吧。
fangyh09
2018-10-13 11:35:58 +08:00
我最后用了 sh+complete
wyssurvivor
2018-10-13 11:35:59 +08:00
我都 scp
fangyh09
2018-10-13 11:36:34 +08:00
@nosay 支持服务器间传输吗,我用本地 local
nosay
2018-10-13 11:39:48 +08:00
@fangyh09 可以的。需要登陆,订阅以后 sftp 功能才会出现。不过可以试用半月。
TonyLiu2ca
2018-10-13 11:40:29 +08:00
rsync + shell 脚本
再说这不是互相拷贝,是数据同步吧
mattx
2018-10-13 11:41:31 +08:00
可以开启 ssh 秘钥转发, 这样服务器就可以直接使用 mac 这里的秘钥. 然后 用 rsync, 写个脚本包装下. 比如
rsync -atzH --progress -e "ssh -p xxxx" $1 $2 ,和 scp 用法差不多, 但是 rsync 有断点续传挺好的.
itfanr
2018-10-13 12:15:48 +08:00
nfs samba cp
a852695
2018-10-13 12:18:13 +08:00
在 a 机器对应的目录下用,python -m http.server 临时启 server,在 b 机器通过 wget ip:port/file.txt ,可以下载下来。用完可以直接关闭 server 进程。
likuku
2018-10-13 12:36:30 +08:00
每次路径不同?那么它们有没有个共同的上层目录 /路径?有的话,直接用 rsync 对此上层目录同步到本地即可。

毕竟 rsync 是差异比对同步,之前复制过的 /同步完成的,则不会被再次传输。
likuku
2018-10-13 12:39:46 +08:00
但,若是 s1 s2 s3 之间是交叉增量互相同步,那么会可能引起版本冲突,那么,最好用 git 之类带版本控制的办法,
当然,s1 s2 s3 都向同一台 git 服务器提交和下拉同步
realityone
2018-10-13 12:41:39 +08:00
@ymj123 极致速度请用 nc
necomancer
2018-10-13 12:44:17 +08:00
可以考虑 NFS 系统吗?相当于三个服务器共用硬盘。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/497262

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX