你们用来管理日志大小的是什么?您保存日志多长时间?我意识到这最终取决于站点流量和服务器硬件。我的服务器上有4GB内存,有2x双核2.0 GHz处理器运行Ubuntu。我还没有任何大型网站运行它,我想得到所有这些细节之前,我转移他们。
发布于 2010-08-23 01:24:01
我使用logrotate进行每日轮转(对大日志进行压缩),并根据日志的内容以及需要多长时间(以及它们的大小)来调整保留的天数。
您还可以将所有日志转储到中央Splunk服务器并删除它们。当然,这只是一个管理Splunk服务器中磁盘使用的问题.
发布于 2010-08-23 00:37:46
这取决于您--您在站点当前使用的服务器上使用的是哪种日志轮转方法?你觉得你需要用多久的原木?这些网站的流量将是多少?您发布的资源在很大程度上是不相关的,RAM/CPU只有在编写日志(您不会更改)、分析和压缩日志时才能真正发挥作用--空闲磁盘空间的数量更重要。
我建议每天压缩它们(所以log.1.gzlog.2.gz等等)并删除任何超过一周的。
发布于 2010-08-23 12:40:03
我使用类似于Bill的东西,但是由于我使用的是免费许可证,所以我每天只能索引500 MB。所以对我的案子来说,把所有的东西都扔到斯普伦克是不好的。相反,我将它们保存在本地,并根据需要进行索引(为了排除故障,我平均需要4-5条日志)。
你每天有多少原木?还有什么可能需要他们?如果您有很大的空间,我建议将日志压缩2,3天,然后再压缩它们。
另外,根据你的流量,加上每天的轮转,如果超过某个阈值的话,最好是旋转它们。比方说500 MB。要处理满是日志的5GB文件是不可能的。
https://serverfault.com/questions/173360
复制相似问题