首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何让网页无法搜索?

如何让网页无法搜索?
EN

Stack Overflow用户
提问于 2016-09-04 14:55:14
回答 2查看 8.1K关注 0票数 5

有没有办法让作为简历的网页不能被任何搜索引擎搜索到?

这样做的目的是只与那些有链接的人分享页面。

EN

回答 2

Stack Overflow用户

发布于 2016-09-04 15:29:51

还有更多的要点,我更喜欢全部应用:

正如丹尼尔在他的回答中所说的:

1)您网站中的位置http://example.com/robots.txt

代码语言:javascript
复制
User-agent: *
Disallow: /

这意味着:对于所有机器人/爬虫程序,不允许索引此位置的任何URI。

2)如果 robots.txt意外跳过或损坏了,在上的HTML源代码中你可能会对你的页面进行

代码语言:javascript
复制
<!DOCTYPE html>
<html>  
    ...
    <head>
        <meta name="robots" content="noindex, nofollow" />
    </head>
    ...
</html>

这意味着:如果访问这个页面,不要索引这个页面,甚至不要爬行它的链接-换句话说-停止并离开这里。

3)如果你的网站是不是专用的公共,在.htaccess中创建一个密码,如果使用的是Apache。因此,当用户尝试进入站点时,他将需要用户名和密码。

4)如果你的网站已经以某种方式被索引,而你想禁用它以供公众搜索,你可以使用谷歌站长工具从谷歌的索引中删除web URLS:

票数 8
EN

Stack Overflow用户

发布于 2016-09-04 14:56:56

在网站的根目录下创建一个名为robots.txt的文件,其中包含以下内容:

代码语言:javascript
复制
User-agent: *
Disallow: /

这将阻止所有主要的搜索引擎索引该网站。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/39314338

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档