首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >什么是爬行延迟:1意味着如果它被解释为是?

什么是爬行延迟:1意味着如果它被解释为是?
EN

Webmasters Stack Exchange用户
提问于 2020-02-29 15:21:50
回答 1查看 2.3K关注 0票数 1

我很难理解crawl-delay: 1的含义,如果它没有被忽略,并且实际上被一个给定的网络爬虫所解释。

我从斯蒂芬·奥斯特米勒的回答中了解到表示:

由于10的爬行延迟,爬虫应该:

  • 爬行A页
  • 至少等10秒
  • 爬行B页

这意味着爬虫每分钟最多可以爬行6页(60秒除以10),每小时360页,或每天8 640页。爬行延迟→越小,允许的爬行越多。

从这点我了解到,每秒爬行一个网页,再延迟一秒钟,每分钟爬行30个网页。

然而,在相应的评论中,我从Stephen那里了解到,它将接近或接近60爬行(“获取”)。

60 crawlings还是at most 30爬虫?

换句话说,

什么是爬行延迟:1表示如果它被解释为是?

EN

回答 1

Webmasters Stack Exchange用户

发布于 2020-03-01 07:57:42

爬行-延迟是用来阻止机器人爬行网页或网站非常频繁。然而,它应该使用当你的网站有多少页,是一个大的网站。爬行延迟可以用于社交书签网站、twitter、facebook等经常更新的网站。

代码语言:javascript
复制
User-agent: Googlebot
Crawl-delay: 120

它的意思是Googlebot应该延迟120秒,而不是频繁地爬行网页。

票数 0
EN
页面原文内容由Webmasters Stack Exchange提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://webmasters.stackexchange.com/questions/128101

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档