你能帮我找出我做错了什么吗?以下是几个步骤:
接下来我想部署我的蜘蛛:
第一次尝试:我尝试运行,正如文档指定的,scrapyd-deploy your_scrapyd_target -p project_name - got错误- scrapyd没有安装修复:pip install scrapyd
第二次尝试:我启动了scrapyd服务器,访问了http://localhost:6800/ -all ok
在简要阅读了scrapyd文档之后,我发现我不得不从我的项目中编辑文件scrapy.cfg:slyd/data/projects/new_project/scrapy.cfg添加了以下内容:
[deploy:local]
url = http://localhost:6800/回到控制台,检查一切都好:
$:> scrapyd-deploy -l
local http://localhost:6800/
$:> scrapyd-deploy -L local
default似乎没问题,所以我又试了一次:
$scrapyd-deploy local -p default
Packing version 1418722113
Deploying to project "default" in http://localhost:6800/addversion.json
Server response (200):
{"status": "error", "message": "IOError: [Errno 21] Is a directory: '/Users/Mike/www/portia/slyd/data/projects/new_project'"}我错过了什么?
发布于 2014-12-22 11:55:48
对于任何无意中发现此问题的人,修复方法是将scrapyd部署到项目以外的其他目录中。请参阅这里的详细信息:https://github.com/scrapinghub/portia/issues/128
https://stackoverflow.com/questions/27502828
复制相似问题