Runway 发布第三代视频生成模型,90 秒生成 10 秒片段
Runway发布第三代视频生成模型,90秒生成10秒片段
对于影视和图像内容创作者来说,一个值得关注的新工具来了。专注于该领域的生成式AI公司Runway,正式推出了其最新的Gen-3 Alpha视频生成模型。
官方介绍页面可在此查看:https://runwayml.com/blog/introducing-gen-3-alpha/
根据Runway的说法,相比其前代旗舰模型Gen-2,这次的新版本在生成速度和画面保真度上实现了“重大”飞跃。不仅如此,创作者对于生成视频的结构、风格乃至物体运动的控制,也达到了更精细的级别。关键信息是,Gen-3将在未来几天内正式向Runway的订阅用户开放,涵盖企业客户以及参与其创意合作伙伴计划的创作者。
速度的提升是感官上最直接的冲击。公司联合创始人Anastasis Germanidis透露,Gen-3的生成效率显著高于Gen-2。具体来看,一段5秒的视频片段生成仅需45秒,而生成10秒的内容也只需要90秒。这对于追求效率的创作流程而言,无疑是一个实实在在的利好。
那么,这个被寄予厚望的Gen-3 Alpha,到底有哪些核心能耐?我们不妨梳理一下其官方强调的主要特点:
高保真视频
模型能够产出接近真实世界质量的视频内容,在细节丰富度和画面清晰度上都有上佳表现。
精细动作控制
这或许是创作者最兴奋的一点。模型可以精确地操控视频中物体的运动和场景过渡,从而让复杂的动画场景变得流畅自然。
逼真人物生成
生成具有自然动作、细腻表情和生动情感的人类角色,一直是AI视频的难点。Gen-3在此方面展现了新的可能性。
多模态输入
创作入口非常灵活,既支持从文字描述直接生成视频,也支持将静态图像转化为动态视频,当然也包括传统的文字生成图像。
专业创作工具
模型并非黑箱,而是配备了如运动画笔、相机控制、导演模式等专业工具,给予创作者更深度的干预和引导空间。
增强安全
为了应对生成内容的安全挑战,Runway引入了新的内部视觉审核系统,并采用了C2PA内容来源认证标准,旨在提升内容的可靠性与可控性。
高质量训练
模型的“基本功”很扎实。它使用了描述极其详尽、时间信息密集的字幕数据进行训练,这使得它能够更好地理解并生成具有丰富时间动态和因果关系的视频内容。
综上,Gen-3 Alpha的出现,不仅仅是参数的升级,更标志着AI视频生成工具在实用性、可控性和专业性上,又迈出了关键一步。接下来,就看创作者们如何用它来释放想象力了。
