如何更好更轻量地在服务端获取 har (一个 URL 下所有元素的信息)?
我需要的: 例如: 输入: http://www.163.com 获得:该页面里所有元素,例如图片、 js 、 css 等的信息(包括 header 、 size 、 dns 时间、连接时间、下载时间等等)
试过的方案: phantomjs 缺点:没有 dns 时间和连接时间
chrome --headless --remote-debugging-port 缺点:太庞大了,安装包 40+MB ,还依赖一堆,全套起来接近百兆
我的服务端是对硬盘空间比较敏感的小型 linux 请问,有没有比这两个方案更好更轻量(程序文件尺寸)的其它方案?
1
Arrowing 2017-03-30 21:24:35 +08:00
webtestpage ?
|
2
Arrowing 2017-03-30 21:25:18 +08:00 1
打错了, 2333333
webpagetest |
3
behappy 2017-03-30 21:25:28 +08:00 1
nightmare
|
4
knightdf 2017-03-30 21:46:22 +08:00 1
splash
|
5
trys1 OP @Arrowing 单单“ webpagetest_3.0.zip ”就要 48MB 了,部署这套方案应该要接近百兆以上的磁盘空间了吧? 还得需要安装 python 、 php?
|