我想复制每日漫画书,从www.filosm.net/漫画和存储在一个本地文件夹。
漫画有唯一的名称,并存储在几个位置取决于创建者。
如下所示:
然而,每一个每日漫画都可以通过相同的网址(www.exexosm.net/comics)获得,这会让你重定向到最新的漫画。不过,不确定这是否有用。
我和cron一起经历了一些wget命令来实现这个目标,但是我缺乏知识并没有给我带来任何令人满意的结果。
提前谢谢。
发布于 2011-03-02 17:41:17
您可能需要查看cURL。您需要的是一个脚本,该脚本调用cURL来获取服务器在请求www.扩展名. when /comics时提供的页面源。然后解析返回的数据,查找显示漫画的img标记。
在您有了src标记的img属性之后,您可以使用cURL发出另一个请求,以实际下载图像并将返回的数据保存到本地的文件中。
看起来,实际漫画图像的来源,您要寻找的是从http://www.explosm.net/db/files/Comics开始的,所以您可以使用一个正则表达式,如以下所示,以确定您想要下载的图像的URL。
src\=\"(http:\/\/www\.explosm\.net\/db\/files\/Comics\/[^"]*)\"URL将是匹配中的第一组。
https://stackoverflow.com/questions/5171152
复制相似问题