首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在刮伤蜘蛛上导入项时出错

在刮伤蜘蛛上导入项时出错
EN

Stack Overflow用户
提问于 2016-02-29 23:25:17
回答 1查看 762关注 0票数 0

我正试图让这个和Scrapy一起工作,这真的很令人沮丧。我无法导入items.py文件。我已经尝试了所有的东西,包括添加from__future__ import absolute import,破坏和重新创建项目和蜘蛛的不同名称几次。

代码语言:javascript
复制
from __future__ import absolute_import
import scrapy
from kano.items import KanoItem


class KatscrapSpider(scrapy.Spider):
    name = "katscrap"
    allowed_domains = ["kat.cr"]
    start_urls = (
        'https://kat.cr/usearch/category%3Amusic/2/?field=seeders&sorder=desc',
    )


def parse(self, response):

    self.log("link: %s" % response.xpath(
        '//*[@id][starts-with(@id,"torrent")]/td[1]/div[1]/a[4]//@href').extract())
    item['torrent_url'] = response.xpath(
        '//*[@id][starts-with(@id,"torrent")]/td[1]/div[1]/a[4]//@href').extract()

但我还是明白:

代码语言:javascript
复制
ImportError: No module named kano.items

这似乎是一种常见的擦伤错误,有人能解释一下为什么会发生这种情况吗?

编辑:

这是我的树结构:

代码语言:javascript
复制
├── kano
│   ├── __init__.py
│   ├── __init__.pyc
│   ├── items.py
│   ├── pipelines.py
│   ├── settings.py
│   ├── settings.pyc
│   └── spiders
│       ├── __init__.py
│       ├── __init__.pyc
│       └── kat.py
└── scrapy.cfg
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-03-02 13:06:26

在运行蜘蛛时使用scrapy crawl katscrap代替python kat.py。之所以会发生这种情况,是因为当调用命令python kat.py时,它会搜索当前目录中的kano模块,而不是前一个目录。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35711784

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档