如何使用wget下载网站上的每个图像?

时间:2016-01-02 14:45:26

标签: image pagination wget

对此有很多疑问,但这是我的情景:

如果网站是http://apple.foozbar.com/fizz(我做了那个)并且fizz页面有分页。例如:fizz/page/2?ref=paginationfizz/page/3?ref=pagination,依此类推。并且图片可能包含也可能没有.jpg.gif等扩展名等。也许图片采用以下格式:fozzbar.com/images/3454334/

即使图像没有图像扩展名,我还需要使用wget命令来完成每个分页并下载放在页面上的每个图像?可以wget检测网站上发布的内容是否是图片,只检测特定网站位置上的图片?

1 个答案:

答案 0 :(得分:0)

基本上,作为中的首发:

SELECT s.COMMENT
    , p.PROGRAMME
FROM Students AS s
    INNER JOIN Posts AS p
        ON s.ID = p.ID  

您需要从set -eo pipefail url="http://apple.foozbar.com" for i in {1..100}; do mech-dump --images "${url}/fizz/page/$i?ref=pagination" | xargs -I% wget "$url"% done (debian)

安装mech-dump实用程序
相关问题