为监视和分析集中大量日志文件,什么是好的解决方案?
我有大约20台Linux web服务器,每天生成大约4GB的nginx和Apache日志文件。我希望至少保留30天的原木。
我曾经在过去使用过相扑逻辑,并且移到了一个自我托管的麋鹿堆栈,不幸的是,它已经不再起作用了。我正在寻找一个解决方案,将有类似的分析能力基巴纳,并以一个有竞争力的价格。
如果解决方案还监视一组服务器的度量(即CPU/内存/磁盘的使用情况),那就太好了,但是我可以使用Munin / NetData单独设置它以节省费用。我的主要要求是获得一个良好的物有所值的工具,用于日志文件分析。
发布于 2020-09-10 08:10:24
尽管Netdata目前还不提供日志保存,但我们确实有一个功能相当强大的日志解析器,它提供了大量图表和即时警报。
下面是关于如何为NginX和Apache设置它的指南:https://learn.netdata.cloud/guides/collect-apache-nginx-web-logs
https://softwarerecs.stackexchange.com/questions/76020
复制相似问题