我有3个蜘蛛文件和类。并将项目信息保存在csv文件中,该文件具有不同的文件名、被告、查询条件的可变参数。为此,我需要访问蜘蛛类参数。
所以我的问题是三个。
logger = logging.getLogger(__name__) --它不在pipelines.py里工作--我怎么能打印这些信息?贝娄是我的日志代码风格
logger.log(logging.INFO,'\n======= %s ========\n', filename)我已经在谷歌搜索了很多次了。但我找不到解决办法。
我确实尝试过使用from_crawler函数,但是我找不到适应的情况
Scrapy 1.6.0
python 3.7.3
os window 7 / 32bit代码:
class CensusGetitemSpider(scrapy.Spider):
name = 'census_getitem'
startmonth=1
filename = None
def parse(self, response):
for x in data:
self.filename = str(startmonth+1)
.
.
.
yield item
yield scrapy.Request(link, callback=self.parse)发布于 2019-05-21 15:32:55
spider访问蜘蛛类和实例属性。例如:
open_spider(self, spider):
self.filename = spider.name您可以在这里看到更多关于项目管道的信息,https://docs.scrapy.org/en/latest/topics/item-pipeline.html。
scrapy crawl yourspider -o output.csv
但是,如果确实需要从蜘蛛中设置它,则可以使用每个蜘蛛的自定义设置,例如:
class YourSpider(scrapy.Spider):
name = 'yourspider'
start_urls = 'www.yoursite.com'
custom_settings = {
'FEED_URI':'output.csv',
'FEED_FORMAT': 'csv',
}spider.logger.info('Your message')https://stackoverflow.com/questions/56239351
复制相似问题