首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >抓取一本每日漫画,并在当地储存。

抓取一本每日漫画,并在当地储存。
EN

Stack Overflow用户
提问于 2011-03-02 17:30:50
回答 1查看 166关注 0票数 0

我想复制每日漫画书,从www.filosm.net/漫画和存储在一个本地文件夹。

漫画有唯一的名称,并存储在几个位置取决于创建者。

如下所示:

  • www.explosm.net/db/files/Comics/Rob/comic1.png
  • www.explosm.net/db/files/Comics/Dave/comic2.png

然而,每一个每日漫画都可以通过相同的网址(www.exexosm.net/comics)获得,这会让你重定向到最新的漫画。不过,不确定这是否有用。

我和cron一起经历了一些wget命令来实现这个目标,但是我缺乏知识并没有给我带来任何令人满意的结果。

提前谢谢。

EN

回答 1

Stack Overflow用户

发布于 2011-03-02 17:41:17

您可能需要查看cURL。您需要的是一个脚本,该脚本调用cURL来获取服务器在请求www.扩展名. when /comics时提供的页面源。然后解析返回的数据,查找显示漫画的img标记。

在您有了src标记的img属性之后,您可以使用cURL发出另一个请求,以实际下载图像并将返回的数据保存到本地的文件中。

看起来,实际漫画图像的来源,您要寻找的是从http://www.explosm.net/db/files/Comics开始的,所以您可以使用一个正则表达式,如以下所示,以确定您想要下载的图像的URL。

代码语言:javascript
复制
src\=\"(http:\/\/www\.explosm\.net\/db\/files\/Comics\/[^"]*)\"

URL将是匹配中的第一组。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/5171152

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档