首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Robots.txt不允许特定页面不起作用

Robots.txt不允许特定页面不起作用
EN

Stack Overflow用户
提问于 2015-11-13 22:36:15
回答 1查看 214关注 0票数 0

我有一个Magento安装,我想从谷歌爬行排除隐私策略cookie限制模式页面。在我的robots.txt中,我设置了以下代码:

代码语言:javascript
复制
Disallow: /enable-cookies/
Disallow: /customer-service/
Disallow: /privacy-policy-cookie-restriction-mode/

当我用SemRush分析我的网站时,我得到了与这个页面重复的内容,而不允许指令似乎不起作用。

有什么建议吗?

EN

回答 1

Stack Overflow用户

发布于 2015-11-13 22:39:11

看看这个Google帮助页面:

https://support.google.com/webmasters/answer/66359?hl=en

谷歌不建议阻止crawler访问您网站上的重复内容,无论是使用robots.txt文件还是其他方法。如果搜索引擎不能抓取包含重复内容的页面,它们就不能自动检测这些URL是否指向相同的内容,因此必须有效地将它们视为独立的、唯一的页面。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/33695137

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档