每天 20 多 g 数据,如何最快处理完成啊?

2021-01-26 21:46:43 +08:00
 fourstone

每天 20 多 g 数据,如何最快处理完成啊? 默认后缀都是随机

1469 次点击
所在节点    问与答
13 条回复
wzzzx
2021-01-26 21:49:53 +08:00
问问题能不能描述清楚啊大哥
alazysun
2021-01-26 21:50:15 +08:00
什么东西,没看懂
Mithril
2021-01-26 21:52:15 +08:00
shift+del,只需要一秒
写个定时任务也可以
Keyes
2021-01-26 21:56:28 +08:00
20 多 G 的话要看数据在哪了,如果在硬盘上就得这样处理,如果可以读到内存里,就可以那样处理是最合理的,至于默认的随机后缀,我记得有一个开源项目就是专门搞这个的,速度好像还挺快(我记不清了),你可以去找一下
sutking
2021-01-26 22:01:22 +08:00
rm -rf ?
renmu123
2021-01-26 22:06:14 +08:00
先这样,再那样,最后再这样一下就可以了
pjntt
2021-01-26 22:31:27 +08:00
流式日志处理
felixcode
2021-01-26 23:26:17 +08:00
对他们念一遍金刚经
docx
2021-01-27 04:02:24 +08:00
咋处理?需求不说清楚谁也没法回答。
pckillers
2021-01-27 09:22:46 +08:00
朗读并背诵全部数据,然后 shift del
vcode
2021-01-27 10:45:52 +08:00
这样就可以了
sadfQED2
2021-01-27 11:57:04 +08:00
@renmu123 不不不,你这样不行,你要先那样,然后再这样,最后这样就可以了
unixeno
2021-01-27 12:09:14 +08:00
啪的一下,很快啊,就处理完了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/748692

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX