首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为友好的爬行提供睡眠

为友好的爬行提供睡眠
EN

Stack Overflow用户
提问于 2014-09-18 10:07:39
回答 2查看 4.9K关注 0票数 8

如何从urls列表中下载并在每次下载之间启动暂停?

我在url.txt中有一个urls列表。

代码语言:javascript
复制
http://manuals.info.apple.com/cs_CZ/Apple_TV_2nd_gen_Setup_Guide_cz.pdf
http://manuals.info.apple.com/cs_CZ/apple_tv_3rd_gen_setup_cz.pdf
http://manuals.info.apple.com/cs_CZ/imac_late2012_quickstart_cz.pdf
http://manuals.info.apple.com/cs_CZ/ipad_4th-gen-ipad-mini_info_cz.pdf
http://manuals.info.apple.com/cs_CZ/iPad_iOS4_Important_Product_Info_CZ.pdf
http://manuals.info.apple.com/cs_CZ/iPad_iOS4_Uzivatelska_prirucka.pdf
http://manuals.info.apple.com/cs_CZ/ipad_ios5_uzivatelska_prirucka.pdf
http://manuals.info.apple.com/cs_CZ/ipad_ios6_user_guide_cz.pdf
http://manuals.info.apple.com/cs_CZ/ipad_uzivatelska_prirucka.pdf

我尝试了wget -i url.txt,但是过了一段时间它就停止了,因为服务器正在检测到不友好的爬行。

如何在每个url之间放置停顿?

我怎么用刮痕来做呢?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2014-09-18 10:16:57

wget

代码语言:javascript
复制
wget --wait=10 --random-wait --input-file=url.txt

scrapy

代码语言:javascript
复制
scrapy crawl yourbot -s DOWNLOAD_DELAY=10 -s RANDOMIZE_DOWNLOAD_DELAY=1
票数 13
EN

Stack Overflow用户

发布于 2014-09-18 10:16:34

您可以使用-w或--等待选项在每个请求之间添加一些延迟。

代码语言:javascript
复制
     -w seconds or --wait=seconds
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/25909799

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档