Figure AI 机器人最新演示:协作拉开被子,技术深度测评
机器人协作领域迎来一项关键突破:全球首次实现了由单一神经网络驱动的多机器人协同操作。
5月8日,Figure AI发布了一段卧室场景演示。两台Helix-02机器人在两分钟内,自主、流畅地完成了一系列整理任务:开门、挂衣、收纳耳机、倾倒垃圾、归位椅子,并协同铺平了床上的被子。
协同铺被的环节尤为突出。两台机器人通过一次简短的“点头”动作进行非语言协调,随后同步发力将被子展开。整个过程高度拟人,关键在于它们并未依赖中央控制器或显式通信协议,而是仅凭视觉观察彼此动作,自主推断并决策下一步行动。这标志着对柔性物体的动态、协同操作这一长期挑战取得了实质性进展。
Figure AI指出,这是全球首个基于单一神经网络模型的多机器人locomanipulation演示。每台机器人独立运行相同的AI模型,依靠视觉输入进行自主决策,表面的默契源于各自独立的实时推理。
作为全球估值最高的人形机器人公司,Figure AI的技术路径与国内外主流方案形成鲜明对比。其演示的核心吸引力在于机器人以完整的双足形态移动并协作完成任务。无论是整理实验台还是铺床,任务本身或许不复杂,但“像人一样行走并协同工作”的完整场景,带来了强烈的技术冲击力。
当然,业界对此保持审慎。有观点认为,此类演示可能依赖于精心预设的环境与任务序列,其表现是短周期训练下的可预测行为,而非真正的动态意图理解。要实现开放环境下的长期、自适应协作,仍需更严格的验证。
近期,Figure AI在商业化上动作密集:BotQ工厂实现了Figure 03的每小时产能,累计交付超350台;Figure 04进入后期设计,被内部视为“iPhone时刻”。家庭场景应用也已规划,可能在美国市场推出月租400-600美元的订阅服务,机器人占地小,支持全天候自主运行与充电。
毫无疑问,Figure AI正处在聚光灯下。多机器人协作究竟是未来必备的核心能力,还是一条技术歧途?其商业落地进程,将很快给出答案。
01 Helix-02卧室整洁演示
最新演示集中验证了双机器人在共享家居环境中的多任务协同执行能力。
搭载Helix-02系统的两台机器人,在卧室中执行了从开门到协同铺床的完整重置流程,全程不足两分钟。
Helix-02是Figure AI当前最先进的通用机器人平台,其模型基于超过100万小时的仿真与实体数据训练,目标是在单一平台上兼容家庭与商业场景。
演示凸显了三大核心进展:
全身控制一体化:实现了从上半身操作到全身运动控制的扩展,将步态、平衡、移动与精细操作任务无缝整合。
柔性物体与动态交互处理:成功应对了床单这类无固定几何形态、状态持续变化的物体操作难题。
新场景泛化能力:无需为特定任务设计专用控制器或专家策略,仅通过模型学习即可适应新环境。
柔性物体操作是公认的技术难点。实验室机器人通常处理刚性、已知几何的物体,而布料会不断折叠、滑动。人类依靠触觉与视觉经验本能处理,Helix-02则必须通过视觉感知与动作预测,持续估算布料状态并生成控制指令,这对实时感知与反馈闭环提出了极高要求。
另一大突破是单一神经网络驱动的多机自主协作。所有动作均由机器人自主生成,无远程操控,无中心调度。每台机器人通过自身视觉系统观察环境,直接推断伙伴意图,并在毫秒级频率下连续决策。这类似于两人默契协作,仅凭动作与姿态即可协同,无需语言或共享计划。
在共享空间中,每个机器人的动作都会构成对伙伴的动态环境输入。因此,机器人不能机械执行预设程序,必须将对方的运动轨迹、视线、手部位置及整体姿态纳入实时推理,以预测其目标。对于床单这类无固定抓点的柔性物体,意图预测的误差会随布料状态变化而迅速放大,难度呈指数级上升。
此外,视频展现了机器人出色的节奏感与高维决策能力。在移动、抓握、保持平衡的同时,它们能并行完成挂耳机、用脚触发垃圾桶踏板等精细操作。整个过程没有脚本切换,所有动作均由神经网络在几十毫秒内连续推断并执行。
02 机器人协作:独门绝技还是技术歧途?
Helix展示多机器人协作并非首次。早在2025年2月,Figure AI就发布了该模型的双机协作初代演示。机器人能根据视觉感知和自然语言指令进行协同,例如传递物品,或由位置更优的一方完成收纳。
当时,这一演示在技术上被视为重要突破。它超越了常见的“单机拾放”框架,首次展示了多机器人间的实时互动与任务分工。机器人能依据空间位置和视觉输入调整动作,在当时已属前沿。
然而,质疑声同样存在。部分技术人员指出,演示可能依赖于精心设计的初始状态,机器人表现或许是短序列训练下的可预见行为,而非真正的动态协同。要实现开放环境下的长期、深度协作,仍有明显差距。
这条技术脉络在Helix-02的最新演示中得到了深化。从简单的“传递物品”演进到通过“点头”沟通并完成铺床这类高复杂度任务,其目标显然是迈向真正的视觉驱动、自主推断与连续互动。
那么,为何目前似乎仅有Figure AI重点攻坚多机器人协作?
除了技术本身的高难度,更在于工程实现的挑战极大,而短期商业回报却不明确。目前产业界已落地的多机协作,多为低耦合间接协作或中心调度下的分工,像视频中高耦合、自主协同拉被子的场景,在工程上极为棘手。
但对于志在让机器人“像人一样工作”的Figure AI而言,要实现真正的家庭或商业场景替代,多机器人间的紧密协作,或许是一道无法绕过的必答题。
03 Figure AI量产在即,即将迎来真正检验
尽管Helix-02的演示距离完全替代日常家务仍有距离,但每次展示都极具“类人感”——这极大地提升了公众与投资者的关注度。
然而,技术能否走出实验室,最终要接受规模化落地的严苛检验。未来几个季度,将是验证其技术路径与商业构想的关键节点。
近期,Figure AI的进展密集,其中最实质的突破在于产能。位于加利福尼亚的BotQ制造基地,已将人形机器人的生产节奏从每天1台提升至每小时1台——在不到120天内实现了约24倍的产能爬升。这标志着公司从“原型制造”迈向了“工业量产”的关键一步。
BotQ工厂自设计之初就定位为高产能基地,目标年产能约12,000台,为后续向十万台级别扩展奠定基础。其背后是一套成熟体系:自动化产线架构、覆盖150余个联网工位的定制制造执行软件、严格的供应链质量控制,以及包含80多项最终验证测试的质量体系。据悉,其机器人电池线一次合格率已达99.3%,组件执行器产量超过9,000个。
这种“小时级量产”对Figure而言,不仅是产能数字的跃升,更是开启真实世界数据反馈循环的驱动器。生产线上下线的每一台机器人,其运行数据都将反哺Helix AI模型,持续优化感知、鲁棒性与长期性能——这是在真实复杂场景中实现可靠运行的核心。
创始人Brett Adcock将即将推出的Figure 04比作人形机器人领域的“iPhone 1时刻”。从Figure 01到03,公司在手部灵巧度、足部设计、触觉传感与充电方案上持续迭代,而Figure 04旨在用户易用性、制造工艺与成本控制上实现跨越。
在一次最新采访中,Adcock深入阐释了Figure机器人的设计哲学:
热插拔(Hot-Swap):机器人可独立完成任务并自动对接无线充电。在部署场景采用“热插拔”策略,当一台机器人电量低于10–15%时,另一台可立即替换上岗,保证任务连续性。
永不跌倒(Never Fall):这是研发重点。借助Vulcan强化学习项目,即使单个膝关节失效,机器人也能保持平衡并跛行至维修区。耐久性测试涵盖老化、深蹲、波比跳等,确保其在各种硬件或软件故障下的稳定性。
易维护硬件:强调模块化设计,如可拆卸的外部织物套装和可替换鞋履,让非技术用户也能方便地进行日常维护。
Figure正计划以类似汽车租赁的模式推出家用机器人,月租金约400-600美元。机器人占地仅2×2英尺,可自动充电,无需人工干预。通过板载推理与数据匿名化处理,能在保护用户隐私的同时,持续优化Helix模型性能。
根据最新公开报道,Figure AI的估值已达到约390亿美元。这一估值在其2025年9月完成的C轮融资后定格,该轮融资总额超过10亿美元。公司拥有约500名员工,核心集中于工程与AI团队,覆盖从硬件、电池、嵌入式软件到系统集成与测试的全链条,实现了研发到量产的闭环管理。
Adcock的愿景是,让人形机器人的数量超过办公室人类的数量,以此模拟非结构化环境的压力,同时推动通用智能的发展。他认为,结合了触觉传感与量产硬件的“第七代”机械手,将成为实现AGI(通用人工智能)的重要基石。
*头图来源:Figure AI

