我正在建设一个项目,我需要一个网络爬虫爬行不同的网页列表。此列表可以随时更改。这是如何用scrapy最好地实现的?我应该为所有网站创建一个爬虫,还是动态创建蜘蛛?
我读过关于scrapyd的文章,我猜动态创建爬行器是最好的方法。不过,我需要一个关于如何实现它的提示。
发布于 2014-09-12 15:43:35
如果解析逻辑相同,则有两种方法,
在scrapy中传递参数
scrapy crawl spider_name -a start_url=your_url在scrapyd中用-d替换-a
https://stackoverflow.com/questions/17421766
复制相似问题