首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >谷歌robots.txt文件

谷歌robots.txt文件
EN

Stack Overflow用户
提问于 2015-03-20 01:33:04
回答 1查看 368关注 0票数 0

我想让谷歌机器人: 1)只看到主页2)看到主页搜索结果中的描述

我有以下代码,但它似乎不能工作

代码语言:javascript
复制
User-agent: *
Disallow: /feed
Disallow: /site/terms-of-service
Disallow: /site/rules
Disallow: /site/privacy-policy
Allow: /$

我是不是错过了什么,或者我只是需要等待google机器人访问我的网站?或者这可能是谷歌站长面板所要求的一些操作?

提前感谢!

EN

回答 1

Stack Overflow用户

发布于 2015-03-21 01:56:47

您的robots.txt应该可以工作(是的,这需要时间),但您可能需要进行以下更改:

  • 看起来你只想针对谷歌的机器人,所以你应该使用User-agent: Googlebot而不是User-agent: * (它针对在你的robots.txt).
  • It中没有特定记录的所有机器人似乎你想要禁止爬行除主页之外的所有页面,所以没有必要在Disallow.

中指定几个特定的路径开头

所以它可能看起来像这样:

代码语言:javascript
复制
User-agent: Googlebot
Disallow: /
Allow: /$

谷歌的机器人可能只会抓取你的主页,而不是其他的。所有其他机器人都可以爬行所有东西。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/29151317

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档