Python 用 zipfile 在 USB 载体内解压文件为什么速度会持续降低啊....

2019-08-28 09:48:57 +08:00
 loliordie

大概 USB 硬盘里面有 5 个 T 的压缩包, 解压出来是几十万个 zip 文件. 直接用 zip 处理不了, 于是用 python 写了个小程序用 zipfile 进行处理. 天知道之前的运维什么要这么处理日志文件...

结果解压了一天才 1 万个, 于是打了个 log 记录了下, 发现随着时间变长写入速度越来越低.

一开始稳定在 18 MB/S(解压前大小), 然后处理到第 500 个就降低到 8 MB/S 了.

解压后有 closed, 变量也有用 gc 手动回收内存...看了下资源监视器没发现什么异常...

1459 次点击
所在节点    Python
2 条回复
Kagari
2019-08-28 10:05:27 +08:00
可能是 4k 太低了,你需要 NVME 固态
lolizeppelin
2019-09-03 10:28:25 +08:00
你读一下 zipfile 的源码就知道了

根本原因在于 zip 设计本身,每一个文件需要写在这个文件的前分配空间写一段校验信息,文件越多校验的块也越多,zip 的性能自然就差
加上 python 本来计算就慢,这种方式更放大了 python 的缺陷

文件数量多非常不适合用 zip,非要用 zip 不如调系统的解压工具解压

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/595741

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX