首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么Google工具会完全误读我的robots.txt文件?

为什么Google工具会完全误读我的robots.txt文件?
EN

Stack Overflow用户
提问于 2013-11-18 23:35:17
回答 2查看 546关注 0票数 1

下面是我的robots.txt文件的全部内容。

代码语言:javascript
复制
User-agent: *
Disallow: /marketing/wp-admin/
Disallow: /marketing/wp-includes/

Sitemap: http://mywebsite.com/sitemap.xml.gz

它显然是由Wordpress产生的。我还没有手动创建一个。

然而,当我今天注册谷歌网站管理员工具时。这就是谷歌网站管理员工具所看到的内容:

代码语言:javascript
复制
User-agent: *
Disallow: /

..。所以我所有的网址都被封锁了!

在Wordpress中,设置>读取>搜索引擎可见性:“劝阻搜索引擎不要索引此站点”不被选中。我最近没查过。(谷歌网站管理员工具告诉我,它在2013年11月13日下载了我的robots.txt文件。)

...So为什么它仍然在读旧版本,而不是新版本,而不允许我的所有页面?

需要一段时间吗?我应该耐心点吗?

还有,我的sitemap行末尾的".gz“是什么?我正在使用Yoast全合一SEO包插件。我认为插件添加了".gz",不管它是什么。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2013-11-19 15:30:24

你可以要求Googlebot在你改变你的robots.txt后再次爬行。有关信息,请参见要求Google爬行一个页面或站点

Sitemap文件告诉Googlebot更多关于站点结构的信息,并允许它更有效地爬行。有关更多信息,请参见关于站点地图

.gz只是告诉Googlebot生成的sitemap文件被压缩了。

票数 2
EN

Stack Overflow用户

发布于 2015-04-27 22:42:00

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/20060245

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档