如题,看效果还挺好玩的,有裸眼 3D 的效果。 如果用来搞涩涩会不会有市场~ 我个人的理解是用 AI 分离了前景和背景,然后背景填充一下,然后动的时候前景和背景的 角度幅度差 产生的 3D 效果。
![]() |
1
Rubbly 10 小时 59 分钟前 ![]() 大概有这核心的几步?
1. 主体检测,确定好焦点(旋转中心)要在哪里 2. 深度识别 Depth Estimation ,对每个 object ,包括背景确定好景深 3. 空间适配,大概就是转一下手机,会根据深度 depth 来提供不同的 offset 偏移量,比如说离焦点越远的点,转动手机带来的偏移量会更大。 里面最重要的深度识别 ,苹果一直有在 follow 各种开源库,比如这个 https://github.com/DepthAnything/Depth-Anything-V2 ,能看到很快就集成到了 Apple Core Models 里面 |
2
EVANGELIONAir 9 小时 40 分钟前
很简单啊,语义分割分离前景背景,然后前景放大一点,陀螺仪控制前景与背景偏移方向相反就行
|
3
zanbo 8 小时 41 分钟前 ![]() @EVANGELIONAir 仔细看不止前景和背景,根据景深分了很多层,不同层的图片转动手机的时候还有形变
|
![]() |
4
ItzhacLea 8 小时 33 分钟前
高斯泼溅
|
5
okakuyang 2 小时 2 分钟前
类似高斯泼溅的技术,不是简单的图层分隔。核心点除了高斯泼溅之外,还有发丝级别的深度推测,apple 放出了桌面版本,但是没有放出移动版本。
|
6
Seck 3 分钟前 via Android
就是裸眼 3D ,苹果做了优化,比如图片深度识别分割,这需要 ai 辅助,识别越准确,分割越好,3D 效果越好。
Facebook 有开源项目,也是坐这方面,就是业界前沿研究,apple 做了产业化,看家本领。 Facebook 开源的类似,你晃动鼠标,图片就会动起来有 3D 效果。 果子的看家本领,手机芯片有了 npu ai 算力后拿来干嘛?果子说,我做给你看。 以前就有相关的 APP ,但是深度和分割做的比果子差的不是一星半点。没办法,没有算力支持,只能识别大概,切割后有很粗白色边缘,果子切割细节秒杀。 |