寻找一个Linux应用程序(或Firefox扩展),它将允许我抓取HTML模型并保持页面的完整性。 Firefox做了一个几乎完美的工作,但不抓取CSS中引用的图像。如何使用所有媒体保存公共html页面并保留结构
Firefox的Scrabbook扩展获取所有内容,但是使目录结构变得平坦。
我不会非常在意如果所有文件夹成为索引页的孩子。
寻找一个Linux应用程序(或Firefox扩展),它将允许我抓取HTML模型并保持页面的完整性。 Firefox做了一个几乎完美的工作,但不抓取CSS中引用的图像。如何使用所有媒体保存公共html页面并保留结构
Firefox的Scrabbook扩展获取所有内容,但是使目录结构变得平坦。
我不会非常在意如果所有文件夹成为索引页的孩子。
wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com
你试过wget?
Teleport Pro是伟大的,这样的事情。您可以将它指向完整的网站,它将下载一个本地维护目录结构的副本,并根据需要用相关链接替换绝对链接。您还可以指定是否要将来自其他第三方网站的内容链接到原始网站。
wget -r
你想要做什么,如果没有,有很多标志来配置它。请参阅man wget
。
另一种选择是curl
,它更加强大。见http://curl.haxx.se/。