首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在批处理文件中使用scrapy crawl命令时继续批处理脚本命令

在批处理文件中使用scrapy crawl命令时继续批处理脚本命令
EN

Stack Overflow用户
提问于 2013-05-09 01:36:11
回答 4查看 1.7K关注 0票数 1

我使用scrapy从网页抓取信息。我已经写了爬虫代码,它工作得很好。我还有一些其他的python代码文件来优化抓取的数据。

总而言之,我有一个批处理文件,我首先在其中使用"Scrapy Crawl“命令,然后运行我的python文件来优化抓取的信息。

问题是,批处理脚本在"Scrapy Crawl“命令的末尾停止,并且不会继续执行批处理文件中后面的行。我该如何解决这个问题?

批处理文件的内容:

代码语言:javascript
复制
CD "spiders_folder"
scrapy crawl mySpider -o outputData.json -t json
python refineData.py 
EN

回答 4

Stack Overflow用户

回答已采纳

发布于 2013-05-09 01:58:04

批处理文件逻辑将对其他程序的调用作为子例程处理,并在其执行完成后从那里返回原始批处理文件。AFAICR规则的例外情况是一个批处理文件调用另一个批处理文件。在这种情况下,执行不是作为一个子例程来处理,而是交给另一个批处理文件。

除非您使用call调用第二个批处理文件。

(我可能弄错了,这一切对我来说都是很久以前的事了,所以如果我错了,请不要给我太大的打击。)

如果我的猜测是正确的,这就是您遇到麻烦的原因,那是因为scrapy本身是一个批处理文件。然后就这样叫它:

代码语言:javascript
复制
call scrapy crawl mySpider -o outputData.json -t json
票数 3
EN

Stack Overflow用户

发布于 2013-05-09 02:00:13

我不知道"scrapy",但你可以试试:

代码语言:javascript
复制
start "" "scrapy" crawl mySpider -o outputData.json -t json
票数 0
EN

Stack Overflow用户

发布于 2013-05-09 02:00:47

只要你的批处理文件不会变得更复杂(no for loop等),就把它放在批处理文件的顶部。

代码语言:javascript
复制
@setlocal enabledelayedexpansion
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/16446852

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档