发现是可以的,用 canvas 的每个像素模拟一个矩阵的值,然后在 fragment shader 里面计算就可以实现矩阵乘法了
把 float16 的近似物放在 rgba 中( a 几乎不能用),然后到 fragment 里面还原,最后输出到屏幕上的图像就是计算结果
大概在 650m 下面可以有 150Gflops+的成绩( float16 )
然后我在想这东西有什么卵用……(我知道这个世界上有个无人鸟的 webcl )
1
zjqzxc Oct 4, 2015 有这功夫直接 CUDA 了,非得 xxGL 干嘛。
nv 重心都收到 cuda 上了,之前其产品线中还有个跨平台的渲染器 cg ,两年前也被 nv 给废弃了。用图形处理的思路来做矩阵运算,还不如直接指挥 gpu 干活。 毕竟 opengl 的流水线在那儿,片段着色器之前还有坐标变换和顶点着色器。 等等,还 webgl 。。。又多一层。。而且还只相当于 opengl es 2.0 (性能影响不详)。 如果说做图形的人临时有需求凑合一下可能还挺好,如目的就是科学计算,就没必要再多此一举了, cuda 直接操作 gpu 即可。 ( ATI 那边有啥类似 CUDA 的技术我忘记了。。。。) |
2
dqh3000 OP 除了 cuda ,就剩下一群人搞的 openCL 了, intel , AMD 都在弄这个,还有微软的 openMP 吧?
我就是玩玩,没什么特别意义 然而我也在考虑 WebCL 有什么意义 |
3
pwinner Oct 4, 2015 via Android
分布式计算和 bonic 一样只不过打开网页就能算?
|
4
dqh3000 OP |