如何更好更轻量地在服务端获取 har (一个 URL 下所有元素的信息)?
我需要的: 例如: 输入: http://www.163.com 获得:该页面里所有元素,例如图片、 js 、 css 等的信息(包括 header 、 size 、 dns 时间、连接时间、下载时间等等)
试过的方案: phantomjs 缺点:没有 dns 时间和连接时间
chrome --headless --remote-debugging-port 缺点:太庞大了,安装包 40+MB ,还依赖一堆,全套起来接近百兆
我的服务端是对硬盘空间比较敏感的小型 linux 请问,有没有比这两个方案更好更轻量(程序文件尺寸)的其它方案?
1
Arrowing 2017 年 3 月 30 日
webtestpage ?
|
2
Arrowing 2017 年 3 月 30 日 打错了, 2333333
webpagetest |
3
behappy 2017 年 3 月 30 日 nightmare
|
4
knightdf 2017 年 3 月 30 日 splash
|