如何从HTML源代码中下载所有链接的图像?

时间:2013-02-08 13:40:32

标签: html image automation web-scraping

总体使命: 出于打印的目的,我想下载从Pinterest板链接的330张图像。请注意,不是您在访问电路板时看到的缩略图,而是它们链接到的较大图像。

上下文 转到Pinterest.com首选板并查看源代码。可以在atttribute data-closeup-url

中的页面源中查看相关的高分辨率图像链接

示例网址 http://pinterest.com/stonegarden/misc/

相关的主板仅限邀请,我认为这可能与脚本没有“登录”等有关。

我的问题是:如何以最省力的方式从电路板上下载所有这些330高分辨率图像?即使用脚本,使用iMacros或其他任何内容。最终结果将是包含所有这330个下载图像的文件夹。

按要求编辑:

到目前为止我尝试了什么 我没有使用任何特定的编程语言,我的技能在该领域有限。无论哪种方式,我认为问题将是权限。

  1. 使用Firefox扩展程序自动执行iMacros - 失败,因为我无法使用图片网址和其他原因执行任何有用的操作
  2. Benno提供的解决方案 - 我可以粘贴相关的网址,但失败并说“对所请求的资源没有权限”
  3. 那么,Pinterest如何区分用户单击缩略图以获取大图像,以及Safari是否尝试通过“下载”窗口下载相同的资源?

1 个答案:

答案 0 :(得分:2)

打开浏览器的Web检查器并转到控制台。

输入此代码:

var s = ''; $('div[data-closeup-url]').each(function() { 
s+= $(this).data('closeup-url') + "\n"; 
}); s;

这将为您提供所有图像的URL,然后您可以将它们复制并粘贴到URL捕获实用程序(如jdownloader)中。无需执行与登录其服务器相关的任何操作。或者只为每个URL写一个脚本到file_get_contents(php)。

如果您使用Safari,请打开下载窗口并将URL列表粘贴到下载窗口(ctrl + v或cmd + v),然后下载所有这些内容(在Mac上的safari 6中测试)