首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Scrapyd暂停/继续作业

Scrapyd暂停/继续作业
EN

Stack Overflow用户
提问于 2017-09-26 13:50:15
回答 1查看 725关注 0票数 4

看起来没有合法的方式来暂停/继续使用Scrapyd进行爬行,就像Scrapy本身一样(抓取爬行器-s JOBDIR=jobdir/ spider -1)。我找到的唯一解决方案是:

https://groups.google.com/forum/#!msg/scrapyusers/2VjEBEbOo7s/MSH4GJc2B0sJ

但是我还不明白这个想法。

那么,是否可以使用Scrapyd暂停/继续作业?

耽误您时间,实在对不起

EN

回答 1

Stack Overflow用户

发布于 2017-09-26 14:08:02

想法如下:

当您从cmd运行爬行器时,您可以粘贴额外的参数,例如:scrapy crawl myspider -s JOBDIR=crawls/somespider-1

在endpoint schedule.json中使用Scrapyd时,还可以粘贴一些设置。如果您使用的是scrapyd-client,则如下所示:

代码语言:javascript
复制
s = {'JOBDIR': 'crawls/somespider-1'}
job = api.schedule(project_name, spider_name, settings=s)

在此之后,您可以取消作业。下次,当您将运行相同的作业时- scrapyd恢复以前的工作

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/46418709

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档