|  |      1glancesx      2013-05-03 20:34:40 +08:00 flume/flume_ng+hdfs,数据量大就hadoop跑MR | 
|  |      2terry      2013-05-04 08:49:06 +08:00 最近正在看 logstash + HDFS / Hadoop 可以往这个方向看一下。 | 
|  |      3fire9      2013-05-04 08:51:41 +08:00 error_log会很多么?应该是access_log吧。 | 
|  |      4fay      2013-05-04 09:11:06 +08:00 看看这个文档,或许有启发:http://loggly.com/support/sending-data/logging-from/platform-logs/unix/ Loggly这个服务本身有点贵(对我而言)。关键词是rsyslog日志服务,可以搜下rsyslog + nginx。 | 
|  |      5linlinqi      2013-05-04 09:55:25 +08:00 | 
|  |      6daxingplay      2013-05-05 10:47:28 +08:00 对这个问题我也挺困扰的。 logstash吧,感觉他的界面有些乱,不太容易分析 loggly这个online的服务,我试用了一下,感觉挺耗服务器资源的,而且分析的结果不是很准。 我还用过log.io,nodejs写的,不太适合分析很大的数据,而且不能保存已经看过的,只能看当前的。 |