1
glancesx 2013 年 5 月 3 日
flume/flume_ng+hdfs,数据量大就hadoop跑MR
|
2
terry 2013 年 5 月 4 日
最近正在看 logstash + HDFS / Hadoop 可以往这个方向看一下。
|
3
fire9 2013 年 5 月 4 日
error_log会很多么?应该是access_log吧。
|
4
fay 2013 年 5 月 4 日
看看这个文档,或许有启发:http://loggly.com/support/sending-data/logging-from/platform-logs/unix/
Loggly这个服务本身有点贵(对我而言)。关键词是rsyslog日志服务,可以搜下rsyslog + nginx。 |
5
linlinqi 2013 年 5 月 4 日
|
6
daxingplay 2013 年 5 月 5 日
对这个问题我也挺困扰的。
logstash吧,感觉他的界面有些乱,不太容易分析 loggly这个online的服务,我试用了一下,感觉挺耗服务器资源的,而且分析的结果不是很准。 我还用过log.io,nodejs写的,不太适合分析很大的数据,而且不能保存已经看过的,只能看当前的。 |