首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >爬网后统计信息收集

爬网后统计信息收集
EN

Stack Overflow用户
提问于 2019-07-30 19:34:09
回答 2查看 37关注 0票数 0

我想在抓取完成后收集和解析统计数据。我知道它会转储统计数据,但理想情况下,我希望有一个方法/钩子,该方法在抓取完成时运行,然后可以收集统计数据(因为我将使用它们来决定是否需要自动进行另一次抓取)。

请不要建议使用某种外部脚本,我希望所有这些都包含在一个项目中。

EN

回答 2

Stack Overflow用户

发布于 2019-07-30 20:25:04

尝试使用以下命令保存爬行器的进度:nohup scrapy crawl spider > spider_progress &

只能看到包含spider:cat spider_progress | tail统计信息的文本文件的尾部

票数 0
EN

Stack Overflow用户

发布于 2020-10-05 19:33:41

尝试在您的自定义pipeline中的close_spider方法中收集统计信息,该方法在爬网过程完成后运行。

代码语言:javascript
复制
class SecuritiesPipeline(object):

    def close_spider(self, spider):
        print(spider.crawler.stats.get_stats())
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/57270706

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档