我想找到一个自动的方式来下载整个网站页面(不是整个网站只是一个页面)和页面上的所有元素,然后总结这些文件的大小。网站性能和下载
当我说文件时,我想知道HTML,CSS,图像,本地和远程JS文件以及任何CSS背景图像的总大小。基本上是给定页面的整个页面权重。
我想过使用CURL,但不知道如何使它能够抓取远程和本地JS文件以及CSS文件中引用的图像。
我想找到一个自动的方式来下载整个网站页面(不是整个网站只是一个页面)和页面上的所有元素,然后总结这些文件的大小。网站性能和下载
当我说文件时,我想知道HTML,CSS,图像,本地和远程JS文件以及任何CSS背景图像的总大小。基本上是给定页面的整个页面权重。
我想过使用CURL,但不知道如何使它能够抓取远程和本地JS文件以及CSS文件中引用的图像。
尝试wget
:
-p
或--page-requisites
选项-l 2
为--level=2
-k
对于--convert-links
:wget -p -l 2 -k http://full_url/to/page.html
关闭,但它似乎没有抓取远程JS文件,例如Google分析。 – meme 2010-02-04 17:29:24
@meme尝试添加'-r -l 2'。这是在约1320年 – 2010-02-04 17:37:04
这个手册页这似乎只适用于本地网站的链接,而不是远程网址 – 2010-02-04 17:47:31
您是否需要下载资料?或者将firebug/webdev工具栏/ Yslow给你提供那些信息? – 2010-02-04 16:48:16