OpenAI 的 Sora 是一个先进的视频生成模型,它能够根据文本指令创造出现实和富有想象力的场景。
Sora 模型可以生成长达一分钟的视频,同时保持视觉质量和对用户提示的遵循。这个模型通过从看起来像静态噪声的视频开始,逐步去除噪声来生成视频,能够一次性生成整个视频或者将已生成的视频延长使其更长。
Sora 模型的工作原理涉及将视频处理成有时序的向量,利用变换器架构预测下一个向量。对于视频而言,这些向量被称为 patch ,它们组成了一个三维空间。Sora 使用了一个压缩模型将这些高维向量压缩成单维向量序列,然后基于这个序列使用扩散模型生成视频。
这种技术允许 Sora 根据文本指令创造出现实和富有想象力的场景,为用户提供了一个强大的视频生成工具。
Sora 能够生成多种类型的视频,包括但不限于:
现实场景:例如,一个时尚女性在充满温暖发光霓虹灯和动画城市标志的东京街道上行走。
历史重现:例如,加州淘金热的虚构历史镜头。
自然景观:例如,大苏尔海岸线上激烈的海浪撞击崎岖的悬崖。
动画风格:例如,一只短毛绒怪物旁边的融化红色蜡烛的特写镜头。
纸艺世界:例如,一个由彩色鱼和海洋生物充满的美丽珊瑚礁。
野生动物:例如,展示维多利亚冠鸽引人注目的蓝色羽毛和红色胸部的特写镜头。
推荐一个分析 Sora 视频和最新动态的网站:soravision.net ,专注于展示最新最全的 Sora 生成的视频,分享 Sora 的最新动态,Sora 的相关论文,Sora 的技术原理。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.