腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(1510)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
Python
CrawlSpider
from scrapy.contrib.spiders import
CrawlSpider
, Rulefrom scrapy.item import Item class MySpider(
CrawlSpider
浏览 0
修改于2014-04-15
得票数 2
1
回答
刮伤
CrawlSpider
不爬行
为此,我使用
CrawlSpider
,最终的结果将是获取所有这些数据,并按模型名称将其放入mongoDB文档中。显然,我还没有完成,也还没有达到这一点。我现在拥有的是:import scrapyfromSgmlLinkExtractorfrom scrapy.item import Item class FenderSpide
浏览 3
修改于2014-11-21
得票数 0
2
回答
刮
CrawlSpider
AttributeError '_rules‘
我正在努力刮一家英国知名零售商的网站,但我的
CrawlSpider
面临一个问题-我收到了以下错误信息: import scrapyfrom scrapy.spiders import
CrawlSpider
Packagesfrom datetime import date from selenium import webdriv
浏览 4
修改于2017-08-30
得票数 0
回答已采纳
1
回答
刮伤
CrawlSpider
不加入
-*- coding: utf-8 -*- from scrapy.item import Item, Field title = Field() price = Field() class combatzone_spider(
CrawlSpider
浏览 0
提问于2018-07-24
得票数 0
2
回答
Scrapy
CrawlSpider
不会退出
我对scrapy
Crawlspider
有一个问题:基本上,如果引发了CloseSpider异常,它不会像它应该做的那样退出。代码如下:from scrapy.exceptions import CloseSpiderimport re name = 'recur
浏览 6
修改于2018-08-03
得票数 2
回答已采纳
1
回答
CrawlSpider
不遵循链接
Title说,我正试图使一个
CrawlSpider
在亚马逊的一些产品工作,但没有任何效果。import scrapyfrom scrapy.spiders import
CrawlSpider
, Rule name =
浏览 0
修改于2015-10-10
得票数 1
回答已采纳
1
回答
Scrapy
CrawlSpider
没有爬行
scrapy.contrib.linkextractors.sgml import SgmlLinkExtractorfrom scrapy.contrib.spiders import
CrawlSpider
dirbot.items import Websitefro
浏览 1
修改于2015-12-24
得票数 1
回答已采纳
1
回答
BaseSpider与
CrawlSpider
的区别
我一直在尝试理解在web抓取中使用BaseSpider和
CrawlSpider
的概念。我读过,但在BaseSpider上没有提到。如果有人能解释BaseSpider和
CrawlSpider
之间的区别,我会很有帮助的。
浏览 5
修改于2021-02-10
得票数 15
回答已采纳
1
回答
刮伤
CrawlSpider
重试刮
我在我的
CrawlSpider
中使用的逻辑如下: url = response.url # Check to make我的想法是,通过使用self.parse (
CrawlSpider
使用的)应用爬行规则和dont_filter=True,我可以避免重复的过滤器。
浏览 2
提问于2015-09-19
得票数 2
回答已采纳
2
回答
刮除
CrawlSpider
: URL深度
因此,我想通过保存
CrawlSpider
通过的所有页面来调试发生这种情况的原因,以便进入当前页面。我现在的蜘蛛是这样的: """Designed to crawl french version of dior.com
浏览 4
修改于2020-02-21
得票数 0
回答已采纳
1
回答
scrapy python
CrawlSpider
不爬行
import scrapy from scrapy.linkextractors importLinkExtractor name = 'genericSpider' allowed_domains = ['example.com这就是
CrawlSpider
的意义所在,对吗?访问一个页面,收集它的链接,并访问所有这些链接,直到它耗
浏览 11
提问于2019-04-24
得票数 0
1
回答
运行多个
CrawlSpider
实例
我刚刚开始使用刮伤,我想做以下几件事i=0Use a (mostly) generic
CrawlSpider
to我已经成功地创建了
CrawlSpider
:from scrapy.spiders import
CrawlSpider
scrapy.crawler import CrawlerProcess #M
浏览 1
提问于2018-02-26
得票数 1
回答已采纳
1
回答
在抓取中使用
CrawlSpider
我试着用
CrawlSpider
来做这件事,这是代码,但是爬行器没有返回结果(打开和关闭后):from scrapy.contrib.spidersimport
CrawlSpider
, Rulefrom torent.itemsimport TorentItem class MultiPagesSpider(
CrawlSpid
浏览 1
修改于2014-02-27
得票数 1
1
回答
crawlSpider
似乎没有遵循规则
这是我的密码:from scrapy.spiders import
CrawlSpider
, Rulescrapy.contrib.linkextractors.sgml import SgmlLinkExtractor class GithubSpider(
CrawlSpider
浏览 6
修改于2015-12-17
得票数 0
回答已采纳
1
回答
从爬虫迁移到
CrawlSpider
我试图从一般的爬行器转移到
CrawlSpider
,以利用规则。然而,我的爬虫不再那样工作了。你知道我做错了什么吗?username": response.css(".vcard-username::text").get().strip(), } 新建(不起作用): class GitHubSpider(
CrawlSpider
浏览 9
提问于2021-08-08
得票数 0
回答已采纳
1
回答
CrawlSpider
:请求前忽略URL
我有一个
CrawlSpider
派生的蜘蛛。当url具有某种格式时,它会回调一个名为parse_item的函数。
浏览 2
提问于2014-12-26
得票数 1
0
回答
Scrapy:
CrawlSpider
不解析响应
我以前成功地使用过
CrawlSpider
。scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import Rule,
CrawlSpider
class YydzhSpider(
CrawlSpider
): allowed_domains = ['yydzh.com'] start_urls
浏览 0
修改于2018-07-14
得票数 0
1
回答
如何修复
CrawlSpider
重定向?
我试图为这个站点编写一个
CrawlSpider
:,这是我的代码:from scrapy.contrib.spiders import
CrawlSpider
, Rulescrapy.selector import HtmlXPathSelectorimport re class ShamsStoresSpider(
CrawlSpider
浏览 1
提问于2013-11-05
得票数 0
回答已采纳
1
回答
抓取: Access
CrawlSpider
url列表
我正在使用
CrawlSpider
w/ rules处理程序来处理刮取的url。具体来说,"filter_links“检查表中现有的url。如果未找到,则写入新条目。
浏览 1
修改于2014-03-17
得票数 1
回答已采纳
1
回答
理解Scrapy的
CrawlSpider
规则
我很难理解如何在继承自
CrawlSpider
的蜘蛛中使用rules字段。我的蜘蛛正试图爬过旧金山的黄页披萨目录。我重写了来自
CrawlSpider
的解析方法。在查看了该类中的解析方法之后,我意识到它检查规则并在这些网站上爬行。注意:知道您要重写什么from scrapy.contrib.spiders import
CrawlSpider
, Rulefr
浏览 5
修改于2014-08-23
得票数 8
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券