发现处理十万条以上数据的时候 sed、awk 命令就 bug 了

2017-03-13 13:03:23 +08:00
 artandlol

十万条以上就开始只能处理一部分而已

3925 次点击
所在节点    Linux
16 条回复
mdzz
2017-03-13 13:24:26 +08:00
看到 grep - md5.sum 的时候楞了几秒钟
Martin9
2017-03-13 14:33:02 +08:00
@mdzz 我也
ElmerZhang
2017-03-13 14:51:18 +08:00
你确定不是你的 md5.sum 一直有 append ?
yiyiwa
2017-03-13 14:56:18 +08:00
10 万条不至于吧!
congeec
2017-03-13 15:10:43 +08:00
这种情况下不用 cut 么?
rrfeng
2017-03-13 15:21:56 +08:00
从未遇到过
noark9
2017-03-13 15:35:54 +08:00
从未遇到过,你确定你的数据只是按行还是有增加,或者数据没问题,之前导数据的时候三五百万是松松的处理啊
lrz0lrz
2017-03-13 16:20:51 +08:00
处理几千万行数据从没遇到过这个问题
est
2017-03-13 16:49:12 +08:00
在 hdfs /hadoop stream 上跑 grep 的路过。都不是事儿~~
airqj
2017-03-13 16:56:37 +08:00
@mdzz
@Martin9
以为这是 grep 某种自己未知用法 :(
rogerchen
2017-03-13 18:54:43 +08:00
楼主总想搞个大新闻, FSF 这些远古套件出问题的可能性几乎没有,你也不想想用户群有多大。。。
lhbc
2017-03-13 19:00:01 +08:00
十万也算量?
fxxkgw
2017-03-13 19:00:09 +08:00
C 的效率对付几十万条数据还是妥妥的
chineselittleboy
2017-03-13 19:03:48 +08:00
下午刚处理过三百万行的文本,几十秒
halfbloodrock
2017-03-14 08:48:33 +08:00
想用 shell 处理大量文本数据的话,用 while 结合 awk , sed 。
feiyang21687
2017-03-14 09:31:35 +08:00
md5.sum......

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/347049

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX