2010-02-04 57 views
0

我想找到一个自动的方式来下载整个网站页面(不是整个网站只是一个页面)和页面上的所有元素,然后总结这些文件的大小。网站性能和下载

当我说文件时,我想知道HTML,CSS,图像,本地和远程JS文件以及任何CSS背景图像的总大小。基本上是给定页面的整个页面权重。

我想过使用CURL,但不知道如何使它能够抓取远程和本地JS文件以及CSS文件中引用的图像。

+0

您是否需要下载资料?或者将firebug/webdev工具栏/ Yslow给你提供那些信息? – 2010-02-04 16:48:16

回答

1

尝试wget

  • 使其下载所有必需的文件与-p--page-requisites选项
  • 下载脚本和图像本地的网站,而不是进一步比2个跳以外(这应该让本地图片和代码)与-l 2--level=2
  • 并更改代码文件以链接到您的本地文件,而不是其原始路径与-k对于--convert-links
 
    wget -p -l 2 -k http://full_url/to/page.html 
+0

关闭,但它似乎没有抓取远程JS文件,例如Google分析。 – meme 2010-02-04 17:29:24

+0

@meme尝试添加'-r -l 2'。这是在约1320年 – 2010-02-04 17:37:04

+0

这个手册页这似乎只适用于本地网站的链接,而不是远程网址 – 2010-02-04 17:47:31