首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Schedule scrapy命令scrapy crawl

Schedule scrapy命令scrapy crawl
EN

Stack Overflow用户
提问于 2014-04-08 18:59:00
回答 2查看 987关注 0票数 3

我已经构建了一个爬虫来抓取和提取匹配固定正则表达式的链接。现在,我想在windows任务调度程序中调度任务,以便它使用命令行提示符scrapy crawl crawlername执行爬虫程序。有什么有用的帮助吗?

EN

回答 2

Stack Overflow用户

发布于 2014-11-03 00:58:00

您可以创建一个包含以下内容的bat文件:

代码语言:javascript
复制
cd path_to_scrapy_project
scrapy crawl crawlername

然后使用Windows任务计划程序计划此脚本。

票数 2
EN

Stack Overflow用户

发布于 2020-08-06 21:55:29

您可以创建一个类似run.py的文件

并将您的脚本放在带有多个爬行器的示例中:

代码语言:javascript
复制
import os
import logging

def crawl():
    os.system('scrapy crawl spider1')
    os.system('scrapy crawl spider2')
    os.system('scrapy crawl spider3')

schedule.every(5).minutes.do(crawl)
while True:
    schedule.run_pending()```
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/22934937

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档