我在一个困难的情况下,百度蜘蛛击中我的网站造成了大约3Gb的带宽价值一天。同时,我在中国做生意,所以我不想就这么阻止它。
有没有其他人遇到过类似的情况(有蜘蛛)?你遇到了一个神奇的解决方案吗?或者你只是接受它或者阻止还是不阻止机器人?
发布于 2015-11-24 21:08:17
只要遵循robots.txt,就可以控制请求
User-agent: * Crawl-delay: 10
https://serverfault.com/questions/738735
相似问题