@
locoz vision pro 体验了 4 天, 每天 2 小时左右。 我觉得可以讨论下你说的几个问题。
1. 先说手部跟踪, 去年参加一个 hackthon 高强度用了 quest pro 几天,那个手势追踪抖得非常非常难用。大幅度空间变化稍微快一点点就会断, 导致我设计的几个手势对战交互都无法很好的触发。vision pro 的手势能做到人体本身在快速移动而且手也快速移动的情况下完全追踪住,我甚至可以捏着一个地图快速跑动(室内)也不会掉。你有提到拿着东西误触发, 但是从算法来讲这本身就是 ill_posed problem 。 你拿着东西和真的去捏的手势可能本身就是一样的动作,算在算法的 ambiguity set 里面。我觉得这是很难从算法解决, 更多是从场景上进行规避.
2. 蝴蝶的 demo 我也试了。首先纠正一点, 内屏的对比度和录出来的对比度我觉得至少是差了 50%以上的。内屏的 HDR 能够极大的提升光照的真实感, 录出来首先是 sdr 然后分辨率是 720p 。 我之前是没看过那个 demo 的,那个蝴蝶出来的 2s 内,我是真以为自己眼睛花了以为是真的蝴蝶,阴影 光照都过于逼真。至少比我去年 1 月在 quest pro 上的效果要好很多。这个 demo 真正震撼的是后面的恐龙伸出来, 我哪怕是真的知道这个是渲染出来的, 但是 demo 结束后手表心率已经到了 140 , 纹理,光照,阴影全方面的碾压号称沉浸式超强的 orlando 迪士尼的那个阿凡达的项目。
3. 个人体验最大的负分还是重量和视场角,如果这两个能在接下来的产品提升, 可能会给家里人每人购入一副一起看电影。
4. 关于 accessibility 方面我是同意的。苹果很多产品本身绝对是有障碍用户的目前最佳解决方案, 但是我很难想象 vision pro 能够带来什么额外的体验。 除非做成 google glass 的轻量级用作室外。 但是很希望苹果能在这个方向上投入更多。
4. 其他的有什么讨论的地方欢迎质疑或者分享。