大概 USB 硬盘里面有 5 个 T 的压缩包, 解压出来是几十万个 zip 文件. 直接用 zip 处理不了, 于是用 python 写了个小程序用 zipfile 进行处理. 天知道之前的运维什么要这么处理日志文件...
结果解压了一天才 1 万个, 于是打了个 log 记录了下, 发现随着时间变长写入速度越来越低.
一开始稳定在 18 MB/S(解压前大小), 然后处理到第 500 个就降低到 8 MB/S 了.
解压后有 closed, 变量也有用 gc 手动回收内存...看了下资源监视器没发现什么异常...
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.