发现是可以的,用 canvas 的每个像素模拟一个矩阵的值,然后在 fragment shader 里面计算就可以实现矩阵乘法了
把 float16 的近似物放在 rgba 中( a 几乎不能用),然后到 fragment 里面还原,最后输出到屏幕上的图像就是计算结果
大概在 650m 下面可以有 150Gflops+的成绩( float16 )
然后我在想这东西有什么卵用……(我知道这个世界上有个无人鸟的 webcl )
1
zjqzxc 2015-10-04 12:53:24 +08:00 1
有这功夫直接 CUDA 了,非得 xxGL 干嘛。
nv 重心都收到 cuda 上了,之前其产品线中还有个跨平台的渲染器 cg ,两年前也被 nv 给废弃了。用图形处理的思路来做矩阵运算,还不如直接指挥 gpu 干活。 毕竟 opengl 的流水线在那儿,片段着色器之前还有坐标变换和顶点着色器。 等等,还 webgl 。。。又多一层。。而且还只相当于 opengl es 2.0 (性能影响不详)。 如果说做图形的人临时有需求凑合一下可能还挺好,如目的就是科学计算,就没必要再多此一举了, cuda 直接操作 gpu 即可。 ( ATI 那边有啥类似 CUDA 的技术我忘记了。。。。) |
2
dqh3000 OP 除了 cuda ,就剩下一群人搞的 openCL 了, intel , AMD 都在弄这个,还有微软的 openMP 吧?
我就是玩玩,没什么特别意义 然而我也在考虑 WebCL 有什么意义 |
3
pwinner 2015-10-04 13:10:04 +08:00 via Android
分布式计算和 bonic 一样只不过打开网页就能算?
|
4
dqh3000 OP |