许多页面在robots.txt文件中被阻塞,当我检查该文件时,没有迹象表明有一条规则会阻止这些页面。
robots.txt文件是结构化的:
Sitemap: https://domain.com/sitemap.xml
User-agent: *
Disallow: /directory-1/
Disallow: /directory-2/
Disallow: /directory-3/
Disallow: /directory-4/
Disallow: /directory-5/
User-agent: Googlebot-Image
Disallow:机器人文件中没有一个目录与被阻塞的URL匹配。
我想知道不完整的Disallow是否是问题所在,尽管它只适用于Googlebot-Image?
发布于 2016-11-23 14:41:21
我刚刚发现,不完全不允许所有的机器人完全访问。
在这里找到答案:http://www.robotstxt.org/robotstxt.html
https://webmasters.stackexchange.com/questions/101375
复制相似问题