大概 USB 硬盘里面有 5 个 T 的压缩包, 解压出来是几十万个 zip 文件. 直接用 zip 处理不了, 于是用 python 写了个小程序用 zipfile 进行处理. 天知道之前的运维什么要这么处理日志文件...
结果解压了一天才 1 万个, 于是打了个 log 记录了下, 发现随着时间变长写入速度越来越低.
一开始稳定在 18 MB/S(解压前大小), 然后处理到第 500 个就降低到 8 MB/S 了.
解压后有 closed, 变量也有用 gc 手动回收内存...看了下资源监视器没发现什么异常...
1
Kagari 2019-08-28 10:05:27 +08:00
可能是 4k 太低了,你需要 NVME 固态
|
2
lolizeppelin 2019-09-03 10:28:25 +08:00
你读一下 zipfile 的源码就知道了
根本原因在于 zip 设计本身,每一个文件需要写在这个文件的前分配空间写一段校验信息,文件越多校验的块也越多,zip 的性能自然就差 加上 python 本来计算就慢,这种方式更放大了 python 的缺陷 文件数量多非常不适合用 zip,非要用 zip 不如调系统的解压工具解压 |