首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在静态网站上拦截黑客机器人有好处吗?

在静态网站上拦截黑客机器人有好处吗?
EN

Stack Overflow用户
提问于 2022-09-27 02:04:15
回答 1查看 33关注 0票数 0

每天,机器人都试图通过请求具有已知漏洞的文件(例如,"/FCKeditor/_whatsnew")来寻找进入我的网站的方法。我没有任何这样的文件,因为我的网站是静态的,我不使用任何插件或现成的软件。我对试图利用我的站点的其他人感到厌烦,所以我想我可以写一个脚本来扫描日志文件,然后在.htaccess中禁止任何请求这些幻影文件的IP。(我不能添加到apache2.conf / http.conf文件中,因为我的add主机覆盖了对该文件所做的任何更改。)然而,我不知道禁止违法者是否真的比让他们得到404更好。增加大量禁用的it意味着服务器必须解析合法用户的每一个请求的列表,而不禁止则意味着机器人只为他们的请求获得404,没有回报,服务器返回404比返回403禁止的时间更短。但也许我错过了一些东西,并且有一些好处,禁止冒犯的机器人,而不是只是让他们得到404。我是不是遗漏了什么?

EN

回答 1

Stack Overflow用户

发布于 2022-10-30 01:30:02

这些机器人通常都在寻找第三方软件(就像你在问题中提到的那样,CKEditor )。当机器人发现这样的软件时,它会尝试攻击已知易受攻击的软件。

但你也可能会看到机器人在寻找类似../../etc/passwd的东西。这些扫描仪并不是在寻找第三方软件,而是寻找配置不当的权限。

如果您的网站足够重要,如果您能够负担得起,那么就可以获得WAF服务(AWS有一个)和/或一个机器人保护解决方案。

否则,确保您的权限配置正确,并确保重新检查您的安全投资,如果您开始使用第三方软件或如果您的网站的安全价值变化。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/73861643

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档