2012-07-29 94 views
4

我真的想从网站下载图片,但我不知道很多wget要这样做。他们在一个独立的网站上托管图像,我如何通过使用cat或其他东西从网站上拉链图像链接,因此我可以使用wget将它们全部下载。我所知道的是wget部分。例子是Reddit.com如何从网站中拉出图片链接并使用wget下载它们?

wget -i download-file-list.txt 
+0

您只能使用wget。你将不得不编写一个使用管道和正则表达式的shell脚本。 – 2012-07-29 04:16:02

+0

这有如何使用wget下载整个网站,其中将包含图像:http://www.thegeekstuff.com/2009/09/the-ultimate-wget-download-guide-with-15-awesome-examples/ – 2012-07-29 04:18:54

+0

可能的重复http://stackoverflow.com/questions/4602153/how-do-i-use-wget-to-download-all-images-into-a-single-folder – 2014-02-21 16:38:19

回答

8

试试这个:

wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path 

这将递归1级深起价http://reddit.com/some/path页,它不会创建一个目录结构(如果你想要的目录,删除-nd),它只会下载以“jpg”,“jpeg”,“png”,“gif”或“bmp”结尾的文件。它将跨越主机。

+0

唯一的是,图像是承载了不同的网站。这是一大堆图像网址。 – c0rruptbytes 2012-07-29 08:23:55

+0

@ user1560474然后你想'-H'跨越主机 – 2012-07-29 09:06:33

2

我会使用perl模块WWW::Mechanize。下面堆放的所有链接stdout

use WWW::Mechanize; 

$mech = WWW::Mechanize->new(); 
$mech->get("URL"); 
$mech->dump_links(undef, 'absolute' => 1); 

替换URL你想要的实际的URL。

+0

不错的方法。但是,您是否可以更改此设置,以便从文本文件中一次只读取一个链接? – 2015-05-26 14:28:16

相关问题