是否有Wget命令允许我下载包含以下url的所有jpegs:
http://www.sample.com/images/imag/
因此,该特定url下的所有jpegs都将被下载,如下所示:
不管jpegs是否有不同的命名约定。
发布于 2015-01-14 00:49:03
wget -r -A jpg,jpeg http://www.sample.com/images/imag/
这将创建整个目录树。如果不需要目录树,请使用:
wget -r -A jpg,jpeg -nd http://www.sample.com/images/imag
或者,连接到sample.com (例如通过ssh)并定位/images/imag文件夹ls *.jp* > foo.txt,wget -i -F foo.txt -B http://www.sample.com/images/imag/foo.jpg。
发布于 2015-01-14 00:36:14
取决于您如何“获取”http://www.sample.com/images/imag/图像列表。
如果它是一个包含HTML文档中的图像的页面,您可以尝试如下所示:
wget -nd -p -A jpg,jpeg -e robots=off http://...其中:
-nd:没有目录。--no-directories-p:包含图像(页面要求) --page-requisites-A:要接受的文件名、后缀或模式的逗号分隔列表。--accept-e:执行命令,就像.wgetrc的一部分一样。--execute 有些服务器只提供压缩的HTML,即gzip。然后,您必须采取一些额外的措施,因为wget不会解压缩和解析这些(AFAIK)。一个相当快速和无痛的解决方案是使用Privoxy。
安装后,让wget通过以下方式使用代理:
export http_proxy="http://localhost:8118"然后再运行命令。
https://unix.stackexchange.com/questions/179008
复制相似问题