2014-09-29 66 views
4

我遇到了问题。我有10个URL的列表。我需要计算页面加载时间。使用命令行获取页面加载时间 - linux

我目前使用curl用于获取页面加载时间

时间卷曲www.growingcraft.com

方法二:

wget的www.growingcraft.com

问题是,这个给我下载页面的时间,但:

  1. 此文件是否也包含JavaScript,css和images的时间?
  2. 什么是一些外部引用的一些图像(在这种情况下)。如何计算加载这些图像所用的时间?

是否有任何其他方式可以计算Linux中的页面加载时间,这将更加有效/准确?

+0

我想你应该考虑使用apachebench这种事情.. – eno3nt 2014-09-29 05:34:47

+0

谢谢。将探讨这一点。 – 2014-09-29 05:35:48

+0

这是一个问题,而不是serverfault。你有你的答案:http://serverfault.com/questions/124952/testing-a-website-from-linux-command-line。请考虑删除这个questin从stackoverflow – walkeros 2014-09-29 05:37:04

回答

11

试试这个:

time wget -pq --no-cache --delete-after www.growingcraft.com 

-p使得下载的所有资源(图片,脚本等)

-q使它安静。

其他选项应该是不言自明的。

+0

谢谢。这对我很有用。 – 2014-09-30 06:30:51

+0

这对我来说工作到一定水平,但不完整。我认为它下载了在同一个域中托管的资源,但这个网站也有一些图片托管在谷歌驱动器中。我认为这些都没有考虑在内。 我试图用tools.pingdom.com来检查结果。我可以看到所得结果有很大差异。虽然无法理解原因。 – 2014-10-04 16:59:30

+0

@AnkitAgarwal oops,你需要-H选项使其跨越外部主机。但是,那么你有问题,wget不会并行下载,所以你的加载时间将会增加。您可以尝试类似aria2的方法,但最终会遇到这些工具无法检测脚本加载的资源的问题,这会影响用户感知的整个加载时间。如果您认真对待网络性能测试的自动化问题,我真的会建议寻找[phantomjs](http://phantomjs.org/network-monitoring.html)。 – 2014-10-04 17:52:45