我正在使用以下命令:
wget -nd -e robots=off --wait 0.25 -r -A.pdf http://yourWebsite.net/但我不能从网站上得到PDF。
例如,我有一个根域名:
www.example.com这个网站有PDF,DOCs,HTML等等。我想通过只插入根域名,而不是下载页面的确切地址来下载所有PDF。
发布于 2014-05-18 12:36:14
以下命令应该可以工作:
wget -r -A "*.pdf" "http://yourWebsite.net/"有关更多信息,请参见man wget。
发布于 2018-04-26 20:54:26
如果上面的内容不起作用,请尝试如下:(替换URL)
lynx -listonly -dump http://www.philipkdickfans.com/resources/journals/pkd-otaku/ | grep pdf | awk '/^[ ]*[1-9][0-9]*\./{sub("^ [^.]*.[ ]*","",$0); print;}' | xargs -L1 -I {} wget {} 您可能需要安装lynx:
sudo apt install lynxhttps://askubuntu.com/questions/468639
复制相似问题