首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何通过使用根域名下载网站的PDF?

如何通过使用根域名下载网站的PDF?
EN

Ask Ubuntu用户
提问于 2014-05-18 11:05:11
回答 2查看 17.5K关注 0票数 14

我正在使用以下命令:

代码语言:javascript
复制
wget -nd -e robots=off --wait 0.25 -r -A.pdf http://yourWebsite.net/

但我不能从网站上得到PDF。

例如,我有一个根域名:

代码语言:javascript
复制
www.example.com

这个网站有PDF,DOCs,HTML等等。我想通过只插入根域名,而不是下载页面的确切地址来下载所有PDF。

EN

回答 2

Ask Ubuntu用户

回答已采纳

发布于 2014-05-18 12:36:14

以下命令应该可以工作:

代码语言:javascript
复制
wget -r -A "*.pdf" "http://yourWebsite.net/"

有关更多信息,请参见man wget

票数 10
EN

Ask Ubuntu用户

发布于 2018-04-26 20:54:26

如果上面的内容不起作用,请尝试如下:(替换URL)

代码语言:javascript
复制
lynx -listonly -dump http://www.philipkdickfans.com/resources/journals/pkd-otaku/ | grep pdf | awk '/^[ ]*[1-9][0-9]*\./{sub("^ [^.]*.[ ]*","",$0); print;}' | xargs -L1 -I {} wget {} 

您可能需要安装lynx:

代码语言:javascript
复制
sudo apt install lynx
票数 1
EN
页面原文内容由Ask Ubuntu提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://askubuntu.com/questions/468639

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档