首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Scrapy with Splash:没有名为scrapy_splash的模块

Scrapy with Splash:没有名为scrapy_splash的模块
EN

Stack Overflow用户
提问于 2017-01-11 20:11:03
回答 1查看 2.9K关注 0票数 0

我正在学习如何在scrapy中使用splash。我正在做这个教程:https://github.com/scrapy-plugins/scrapy-splash

我已经创建了一个scrapy项目。当我运行时:

$ scrapy crawl spider1

一切都很好。但是,当我添加到我的settings.py文件时:

代码语言:javascript
复制
DOWNLOADER_MIDDLEWARES = {
'scrapy_splash.SplashCookiesMiddleware': 723,
'scrapy_splash.SplashMiddleware': 725,
'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}

我收到一条消息:ModuleNotFoundError: No module named 'scrapy_splash'。我已经检查了我的scrapy_splash是否安装了:

代码语言:javascript
复制
username$ pip3 show scrapy_splash
Name: scrapy-splash
Version: 0.7.1
Summary: JavaScript support for Scrapy using Splash
Home-page: https://github.com/scrapy-plugins/scrapy-splash
Author: Mikhail Korobov
Author-email: kmike84@gmail.com
License: BSD
Location: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages
Requires: 

我尝试将scrapy_splash导入到我的爬行器脚本和设置脚本中。如果我这样做,我会收到一条消息:

代码语言:javascript
复制
raise KeyError("Spider not found: {}".format(spider_name))
KeyError: 'Spider not found: spider1'

有人知道如何解决这个问题吗?

EN

回答 1

Stack Overflow用户

发布于 2018-04-18 10:51:22

您应该添加到requirements.txt:

scrapy splash==0.7.2

之后,构建容器

docker-compose build container_name

这对我很有效。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41590635

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档