每天,机器人都试图通过请求具有已知漏洞的文件(例如,"/FCKeditor/_whatsnew")来寻找进入我的网站的方法。我没有任何这样的文件,因为我的网站是静态的,我不使用任何插件或现成的软件。我对试图利用我的站点的其他人感到厌烦,所以我想我可以写一个脚本来扫描日志文件,然后在.htaccess中禁止任何请求这些幻影文件的IP。(我不能添加到apache2.conf / http.conf文件中,因为我的add主机覆盖了对该文件所做的任何更改。)然而,我不知道禁止违法者是否真的比让他们得到404更好。增加大量禁用的it意味着服务器必须解析合法用户的每一个请求的列表,而不禁止则意味着机器人只为他们的请求获得404,没有回报,服务器返回404比返回403禁止的时间更短。但也许我错过了一些东西,并且有一些好处,禁止冒犯的机器人,而不是只是让他们得到404。我是不是遗漏了什么?
发布于 2022-10-30 01:30:02
这些机器人通常都在寻找第三方软件(就像你在问题中提到的那样,CKEditor )。当机器人发现这样的软件时,它会尝试攻击已知易受攻击的软件。
但你也可能会看到机器人在寻找类似../../etc/passwd的东西。这些扫描仪并不是在寻找第三方软件,而是寻找配置不当的权限。
如果您的网站足够重要,如果您能够负担得起,那么就可以获得WAF服务(AWS有一个)和/或一个机器人保护解决方案。
否则,确保您的权限配置正确,并确保重新检查您的安全投资,如果您开始使用第三方软件或如果您的网站的安全价值变化。
https://stackoverflow.com/questions/73861643
复制相似问题