中国首个 Sora 级模型 Vidu 发布:可生成最长 16 秒、最高 1080P 视频
中国首个Sora级模型Vidu发布:可生成最长16秒、最高1080P视频
今天,在中关村论坛的未来人工智能先锋论坛上,生数科技与清华大学联手,正式揭晓了国内视频生成领域的一个重磅成果——Vidu。这个被业界和媒体视作中国首个达到Sora级别的视频大模型,瞬间吸引了所有关注的目光。
根据官方发布的技术细节,Vidu模型的核心在于创新性地融合了Diffusion与Transformer两大技术路线,并在此基础上开创了名为U-ViT的全新架构。正是这一底层突破,使得模型能够一键生成时长最多达16秒、且分辨率高达1080P的高清视频内容。这标志着我们在长时长、高一致性视频生成方面,迈出了关键一步。
那么,实际效果究竟如何?从官方演示中可见一斑。其中一个片段展示了“画室中的一艘船驶向镜头”的场景,无论是海浪的涌动还是船只的细节,都呈现出惊人的逼真度与动态连贯性。
不仅如此,Vidu展现的能力远不止于模仿现实。官方表示,它既能高度模拟真实物理世界的运行规律,也具备丰富的想象力。更值得称道的是其多镜头生成能力,以及跨越时间与空间的高一致性,这恰恰是衡量视频生成质量的核心难点。
客观来看,自Sora面世之后,全球范围内都在竞相追赶。Vidu的发布,无疑是其中率先取得重大突破的标杆之一。其整体性能已经能够全面对标国际顶尖水平,并且仍处于快速迭代的上升通道中。
任何技术的爆发都不是偶然。Vidu之所以能快速突破,根植于研发团队在贝叶斯机器学习和多模态大模型领域深厚的长期积累与多项原创性成果。这才是其技术底蕴的坚实保障。
说到技术根基,就不得不提其核心的U-ViT架构。事实上,该架构由团队早在2022年9月便已提出,这个时间点甚至早于Sora所采用的DiT架构。可以说,这是全球范围内首个成功将Diffusion与Transformer进行深度融合的探索。
理论需要实践验证。到了2023年3月,该团队开源了基于U-ViT架构的多模态扩散模型UniDiffuser。这一步至关重要,它率先在全球范围内完成了U-ViT架构大规模可扩展性的实战验证,为后续Vidu的诞生铺平了道路。

