首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >scrapy菜鸟:教程。运行scrapy crawl dmoz时出错

scrapy菜鸟:教程。运行scrapy crawl dmoz时出错
EN

Stack Overflow用户
提问于 2012-04-25 06:18:59
回答 2查看 5.3K关注 0票数 3

我已经设置了PATH变量,并且我认为我配置的一切都是正确的。但是当我在startproject文件夹中运行"scrapy crawl dmoz“时,我得到了以下错误消息:

代码语言:javascript
复制
c:\matt\testing\dmoz>scrapy crawl dmoz
2012-04-24 18:12:56-0400 [scrapy] INFO: Scrapy 0.14.0.2841 started (bot: dmoz)
2012-04-24 18:12:56-0400 [scrapy] DEBUG: Enabled extensions: LogStats, TelnetConsole,         
CloseSpider, WebService, CoreStats, SpiderState
2012-04-24 18:12:56-0400 [scrapy] DEBUG: Enabled downloader middlewares:    
HttpAuthMiddleware, DownloadTimeoutMiddleware, UserAgentMiddleware, RetryMiddleware,
faultHeadersMiddleware, RedirectMiddleware, CookiesMiddleware,   
HttpCompressionMiddleware, ChunkedTransferMiddleware, DownloaderStats
2012-04-24 18:12:56-0400 [scrapy] DEBUG: Enabled spider middlewares:   
HttpErrorMiddleware, OffsiteMiddleware, RefererMiddleware, UrlLengthMiddleware,  DepthMiddware
2012-04-24 18:12:56-0400 [scrapy] DEBUG: Enabled item pipelines:
Traceback (most recent call last):
File "c:\Python27\Scripts\scrapy", line 4, in <module>
execute()
File "c:\Python27\lib\site-packages\scrapy-0.14.0.2841-py2.7- 
win32.egg\scrapy\cmdline.py", line 132, in execute
_run_print_help(parser, _run_command, cmd, args, opts)
File "c:\Python27\lib\site-packages\scrapy-0.14.0.2841-py2.7-
win32.egg\scrapy\cmdline.py", line 97, in _run_print_help
func(*a, **kw)
File "c:\Python27\lib\site-packages\scrapy-0.14.0.2841-py2.7-
win32.egg\scrapy\cmdline.py", line 139, in _run_command
cmd.run(args, opts)
File "c:\Python27\lib\site-packages\scrapy-0.14.0.2841-py2.7-
win32.egg\scrapy\commands\crawl.py", line 43, in run
spider = self.crawler.spiders.create(spname, **opts.spargs)
File "c:\Python27\lib\site-packages\scrapy-0.14.0.2841-py2.7-  
win32.egg\scrapy\spidermanager.py", line 43, in create
raise KeyError("Spider not found: %s" % spider_name)
KeyError: 'Spider not found: dmoz'

有没有人知道可能会发生什么?

EN

回答 2

Stack Overflow用户

发布于 2012-10-24 01:09:30

我也有这个问题。

这是因为scrapy教程要求您将创建的爬行器放在/dmoz/spiders/中,但scrapy正在tutorial/tutorial/spiders中查找。

dmoz_spider.py保存在tutorial/tutorial/spiders中,爬网就会正常工作。

票数 12
EN

Stack Overflow用户

发布于 2012-04-25 17:08:14

在命令行中尝试

代码语言:javascript
复制
C:\Users\Akhtar Wahab> python # any any directory path

如果它能工作

试一试

代码语言:javascript
复制
scrapy version

如果它也能工作

然后确保你做了一个scrapy项目

代码语言:javascript
复制
scrapy startproject name

如果以上一切对你来说都是积极的

然后确保您在scrapy.cfg所在的目录中运行scraper命令。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/10306851

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档