清华与星动纪元联合发布首个 AIGC 机器人大模型 VPP

2026-05-03阅读 0热度 0
机器人 人工智能 机器学习

首个AIGC机器人大模型VPP问世:让机器人“看懂”未来,听懂人话

人工智能生成内容(AIGC)的浪潮,正从文本、图像、视频,涌向一个更具挑战性的领域——具身智能机器人。最近,来自清华大学叉院ISRLab与北京星动纪元科技的一项合作成果,成了这场浪潮中的焦点。他们推出了全球首个AIGC机器人大模型VPP(视频预测策略),并且这项研究在竞争激烈的ICML 2025上荣获了Spotlight论文奖。

VPP模型示意图,展示了机器人通过视频预测理解任务

这意味着什么?简单来说,AIGC技术不再只是屏幕里的“魔术”,而是开始驱动物理世界的机器人。VPP的核心突破在于,它让机器人学会了“基于视觉的未来推演”。模型利用海量的互联网视频进行训练,最终使得机器人能够听懂一句简单的自然语言指令,比如“给我盛一碗热腾腾的鸡汤”,就能实时在脑海中预测完成任务所需的步骤画面,并同步驱动身体执行出舀汤、端碗等一系列动作。

要知道,在今年ICML超过12000篇投稿中,只有约2.6%能获评Spotlight,竞争之激烈可见一斑。VPP之所以能脱颖而出,关键在于它巧妙地绕过了传统机器人策略面临的瓶颈。传统方法往往受限于推理速度或特定场景的泛化能力,而VPP创新性地将视频扩散模型的强大视觉理解和生成能力,引入了机器人操作策略的学习中。这就像给机器人装上了一颗能“脑补”后续画面的“大脑”,实现了从理解到执行的实时闭环,策略的适应性和泛化能力自然得到了质的飞跃。

VPP模型两阶段学习框架图解

那么,这颗“大脑”是如何构建的呢?VPP的学习过程分为两个清晰的阶段。第一阶段,它利用视频扩散模型学习预测性的视觉表征,也就是学会理解动态场景的演变规律。第二阶段,再通过名为Video Former和DiT扩散策略的模块,将这种对未来的视觉预测转化为具体的、可执行的动作序列。这种设计带来一个巨大优势:机器人策略的“可移植性”变得极强。一套训练好的VPP模型,能够相对轻松地在不同形态的人形机器人平台上部署和切换,这极大地降低了对单一平台、海量高质量实体操控数据的依赖,为机器人技术的快速商业化落地铺平了道路。

性能如何,数据说话。在权威的Calvin ABC-D基准测试中,VPP的任务完成平均长度达到了4.33,成功率显著超越了现有技术。更令人印象深刻的是其多任务学习能力——在真实环境测试中,VPP已能驾驭超过100种复杂的灵巧操作任务。这充分表明,基于视频预测的范式,不仅是一个优雅的理论构想,更是一个经得起实践检验的、强大的机器人智能解决方案。


免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策