首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在Scrapy中修复403响应

如何在Scrapy中修复403响应
EN

Stack Overflow用户
提问于 2019-06-22 16:57:57
回答 1查看 373关注 0票数 0

http://prntscr.com/o56670

请查看截图

我正在使用python 3并在我的终端上使用scrapy。

fetch("https://angel.co/adil-wali")

当请求链接时,它以403响应。

所以我已经改变和轮换了用户代理和机器人,但仍然显示403响应,所以这次我购买了爬虫计划,但爬虫仍然说523响应

您知道为什么在scrapy shell中请求返回403而不是200响应吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-06-24 20:38:02

尝试向您的请求添加标头:

代码语言:javascript
复制
fetch(
    "https://angel.co/adil-wali", 
    headers={
        "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3",
        "accept-language": "en-US,en;q=0.9,ru-RU;q=0.8,ru;q=0.7",
        "cache-control": "no-cache",
        "pragma": "no-cache",
        "upgrade-insecure-requests": "1"
    }
)

使用这种方法,我能够从提到的URL获得响应200。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56714076

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档