网站性能和下载

时间:2010-02-04 16:46:45

标签: performance web

我想找到一种自动下载整个网站页面的方式(不是整个网站只有一个页面)和页面上的所有元素,然后总结这些文件的大小。

当我说文件时,我想知道HTML,CSS,图像,本地和远程JS文件以及任何CSS背景图像的总大小。基本上是给定页面的整个页面权重。

我考虑过使用CURL,但不知道如何启用它来获取远程和本地JS文件以及CSS文件中引用的图像。

1 个答案:

答案 0 :(得分:1)

尝试wget

  • 使用-p--page-requisites选项
  • 下载所有必需的文件
  • 下载网站本地的脚本和图片,距离不超过2跳(这应该是本地图片和代码)-l 2 --level=2
  • 并更改代码文件以链接到您的本地文件,而不是-k --convert-links的原始路径:
    wget -p -l 2 -k http://full_url/to/page.html
相关问题