faceair
2014-09-14 13:38:32 +08:00
我们以前做过纯网页体感游戏的参赛项目。手机打开一个html5网页,在这个网页收集手机传感器信息。这个网页再通过websocks连接服务器,服务端分析传感数据后再控制网页端的动作。
当时我们想相对摄像头实现更多的动作,所以选择这个方案。摄像头识别二维动作还好,但对于前进后退识别起来比较困难。
当时识别效果和操控性都不是很好,我们想了下,可能有的问题是:
1、各个手机浏览器、不同手机对html5的支持度不一样。有的手机传感器数据会漂移,有的浏览器获取数据有问题,所以当时我们只有一台测试机是正常的。
2、算法和思路有问题。因为我们是一个类似于RPG游戏,所以我们需要完整识别出对应的动作后才能实现一个动作。这样的后果就是有很长一段时间我们是在等待一段数据,大概采集30个点的数据后才会开始识别。当时的识别的学习算法是一个学长写的,据他说采集的样本不够大,如果够大的话识别率还能再提高点。
3、网络延迟。一般体感游戏都是本地的,而纯网页实现至少需要一个远程服务器来识别动作。体感数据上传,分析,再回传动作。这个操作延时太长。
后来比赛结束就没有再研究了,各位有兴趣可以想想怎么继续优化。