2009-10-24 113 views
0

我正在将一堆网站移动到一台新服务器上,并确保我不会错过任何内容,希望能够为程序提供一个网站列表,并为其下载每个网页/图像。有没有可以做到这一点的软件?我也可以用它来下载一些WordPress的网站的副本,所以我可以上传静态文件(我的一些WP网站永远不会更新,所以很难设置新的数据库等)最佳网站蜘蛛?

+0

属于superuser.com – 2009-10-24 15:39:58

+0

您是否无法通过FTP连接到该站点并下载文件?如果你能做到这一点,它会容易得多,而且你不必担心文件被遗漏,因为当前没有链接到它们。 – David 2009-10-25 06:14:00

回答

0

wget是你的工具。

在unix/linux系统上,它可能已经安装。对于Windows系统,请从http://gnuwin32.sourceforge.net/packages/wget.htm下载。

它是一个命令行工具,有一堆命令行选项用于控制它抓取目标网站的方式。使用“wget --help”列出所有可用的选项。