Sora,OpenAI发布的人工智能文生视频大模型(但OpenAI并未单纯将其视为视频模型,而是作为“世界模拟器” [10]),于2024年2月15日(美国当地时间)正式对外发布 [1] [3]。 Sora继承了DALL-E 3的画质和遵循指令能力,可以根据用户的文本提示创建逼真的视频 [1],该模型可以深度模拟真实物理世界 [2],能生成具有多个角色、包含特定运动的复杂场景,能理解用户在提示中提出的要求,还了解这些物体在物理世界中的存在方式 [4]。 Sora对于需要制作视频的艺术家、电影制片人或学生带来无限可能,其是OpenAI“教AI理解和模拟运动中的物理世界”计划的其中一步 [4],也标志着人工智能在理解真实世界场景并与之互动的能力方面实现飞跃 Sora,OpenAI最新推出的文本转视频模型,能够仅凭用户输入的提示词、文本指令或静态图像,生成高达一分钟的视频内容,且视觉质量绝佳。这些视频不仅展现了精细的场景复现,还有生动的角色表情和复杂的镜头动态。
标签:视频,场景,模型,OpenAI,sora,文本,Sora From: https://www.cnblogs.com/wangprince2017/p/18022385