我经营一个网站,每天都被滥用,机器人试图发送垃圾邮件,不尊重robots.txt等。然而,最大的问题是重复大规模获取网站的尝试。现在,我有自己的脚本,它使用Nginx来阻止错误的ips。这个列表包含了类似于100000+的ips,而且它还在增长。
现在的问题是:我正在将我的网站迁移到一个新的服务器。我想征求关于如何阻止如此数量的ips的建议。最流行的解决方案是Fail2Ban,但是它能够禁止使用有其自身限制的iptables (大约4500条规则,请参阅可以支持多少条规则?),因此,阻止最多4500 ips对我来说绝对是不够的。
我想知道克服这个限制的最好方法是什么。
我是应该向fail2ban添加规则来阻止ips使用nginx,还是应该使用另一种方法?
发布于 2014-12-11 14:52:22
无论如何,我通过安装Ipset并将默认的Fail2Ban操作更改为使用ipset来禁止ips,从而使它与Fail2Ban一起工作。
发布于 2014-12-10 22:31:34
我建议调查一下mod_security (https://www.modsecurity.org/)。它可以对限制请求进行评分,这可能就是您要寻找的。
https://serverfault.com/questions/650696
复制相似问题