首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >用Scrapy匹配robots.txt中的多个用户代理

用Scrapy匹配robots.txt中的多个用户代理
EN

Stack Overflow用户
提问于 2020-01-20 23:32:14
回答 1查看 183关注 0票数 1

我刚接触Scrapy,我想知道如何让爬虫遵守robots.txt文件中两个或多个用户代理的规则(例如,Googlebot和Googlebot-Mobile)。

我目前使用的是ROBOTSTXT_USER_AGENT,但是该选项只允许我指定一个用户代理字符串用于在robots.txt文件中进行匹配,并且我需要匹配至少两个用户代理。你知道怎么做吗?

EN

回答 1

Stack Overflow用户

发布于 2020-01-21 22:57:14

我只是使用/来分离要匹配的用户代理,它起作用了:

代码语言:javascript
复制
"ROBOTSTXT_USER_AGENT": "Googlebot | Googlebot-Mobile | *"
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59826431

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档