内网上传大量的小文件到中心服务器

2018-03-05 22:31:42 +08:00
 yuyuyu

内网,windows,有很多子服务器在不停的上传小文件(约 20k-50k )到中心服务器,每台子服务器每秒大约上传 20 个,现在的方案是在中心服务器上开了个共享目录,子服务器挂载了这个共享目录然后直接往这个共享目录里写小文件。小文件的文件名是 uuid 绝对不会重复的。 现在的问题是这种方案性能不好,偶发性的写入文件这个操作大约要耗时几百毫秒有时候甚至 1-2 秒,还有什么更好的方案吗?

2096 次点击
所在节点    问与答
12 条回复
nightv2
2018-03-05 22:47:07 +08:00
上传这个逻辑必须是每秒不间断么?要么隔一段时间上传一个压缩包。
yuyuyu
2018-03-05 23:06:05 +08:00
@nightv2 是的,不能间断,要求实时性很高必须实时的上传
metrxqin
2018-03-05 23:13:07 +08:00
计算出来每秒数据量,检查子设备跟服务器之间的带宽能不能满足要求。
wlwood
2018-03-05 23:13:47 +08:00
其实,我是认为 Windows 不好。(逃…
yuyuyu
2018-03-05 23:16:55 +08:00
@metrxqin 内网带宽绝对能满足
也测试了在中心服务器上新挂一块 ssd,新建了一台测试子服务器,写入 ssd 共享目录偶尔还是有几百毫秒到 1、2 秒的耗时
omph
2018-03-05 23:24:02 +08:00
换传输协议?
要不试试 QUIC
loading
2018-03-05 23:33:18 +08:00
不如试着写到 nosql,内存数据库,没问题。然后再批量写到硬盘。
crysislinux
2018-03-06 01:30:08 +08:00
都写到同一个目录了?有没有可能给不同子服务器开不同目录,然后各个目录里按时间再切分,很多文件系统一个目录文件多了就会慢。如果所有机器都挂载同一个目录,一个机器写了数据,就可能需要同步到其他机器,想想要多少操作,不过感觉只要不读目录,应该不会马上同步。。。
rubycedar
2018-03-06 01:48:26 +08:00
ws 长连接了解一下
tomczhen
2018-03-06 01:48:55 +08:00
其实 SSD 不适合这种连续长时间写入,回收时写入会受影响,也许最新的傲腾才可以解决你的问题。

如果场景是日志收集,建议找专门的针对性接近方案处理吧。
tailf
2018-03-06 10:28:53 +08:00
我觉得压缩一下传输再解压缩是最快的。
tailf
2018-03-06 10:29:51 +08:00
仔细读了一遍题目,发现理解错了,这种情况确实应该使用 nosql。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/435124

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX