首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >带有身份验证或cookie的Python scrapy

带有身份验证或cookie的Python scrapy
EN

Stack Overflow用户
提问于 2021-06-01 10:20:53
回答 1查看 33关注 0票数 1

我有以下网络爬虫脚本是正确的工作,我需要的是一个集成身份验证或在每个请求发送cookies的方式

代码语言:javascript
复制
import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor
class TheFriendlyNeighbourhoodSpider(CrawlSpider):
    name = 'TheFriendlyNeighbourhoodSpider'    
    allowed_domains = ['one.google.com']
    start_urls = ['https://one.google.com/about']   
    custom_settings = {
    'LOG_LEVEL': 'INFO'
    }
    rules = (
        Rule(LinkExtractor(), callback='parse_item', follow=True),
    )
    def parse_item(self, response):
        print(response.url)
EN

回答 1

Stack Overflow用户

发布于 2021-06-01 10:42:42

代码语言:javascript
复制
request_with_cookies = Request(url="http://www.example.com",
                           cookies=[{'name': 'currency',
                                    'value': 'USD',
                                    'domain': 'example.com',
                                    'path': '/currency'}])

有关更多信息,请访问:https://docs.scrapy.org/en/latest/topics/request-response.html

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/67781976

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档