Linux 下怎样快速查看一个超大文件夹的文件总大小?

2018-12-07 08:48:13 +08:00
 alwayshere

一个超大文件夹"./attachments",内部嵌套 3 级目录,总共的子目录大约有几百万个,总体积大概有几百个 G,怎样以最快的速度查看总文件夹的文件大小?

14462 次点击
所在节点    程序员
35 条回复
GeruzoniAnsasu
2018-12-07 12:15:52 +08:00
剑走偏锋……算其它目录的总大小
jasonyang9
2018-12-07 12:37:06 +08:00
又学到一个新命令,ncdu
werty
2018-12-07 14:44:49 +08:00
rm -rf * && du -h -d 1
速度一定不会慢 :)
jingrui
2018-12-07 14:46:16 +08:00
du --max-depth=1 -h /usr/
zhila
2018-12-07 14:52:12 +08:00
一直是把这种文件放到独立的分区里然后 df,ncdu 学到了。
iScout
2018-12-07 18:06:00 +08:00
ncdu 学到了
gesse
2018-12-07 18:14:25 +08:00
机械盘就没办法了
orm
2018-12-07 18:16:40 +08:00
ncdu 是的好软件
snail1988
2018-12-07 18:19:19 +08:00
ncdu 也没快太多,这是因为文件系统的设计导致的。。楼主想找一瞬间就读出大小的方法,常见的文件系统应该是不支持的。。。
vuuv
2018-12-07 21:51:40 +08:00
du 的 max-depth 只是控制汇总显示的粒度。
当然逐行显示会因为有进展而让人觉得会快些,实际上加不加此参数,对整体耗时无影响。
msg7086
2018-12-07 21:57:58 +08:00
小文件多的话考虑用 Reiser 系。常见的 ext4 之流对几百万文件是怎么都不会快起来的,不用想了……
codehz
2018-12-07 22:12:52 +08:00
@vuuv #30 有,输出到 tty/管道也是阻塞的(
booxlp
2018-12-07 22:44:55 +08:00
du -h ./attachments — max-depth=1
luobo
2018-12-07 22:45:03 +08:00
mark mark
1747479654
2018-12-08 08:05:59 +08:00

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/515218

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX