蚂蚁灵波开源LingBot-VLA训练代码:150条示教数据快速适配新机器人
具身智能开源生态迎来一项关键基础设施的释放。
蚂蚁集团旗下灵波科技正式开源了其具身基座模型LingBot-VLA的全套真机后训练工具链。开发者现在可以基于这套标准化工具,利用自有场景数据,将LingBot-VLA高效适配至特定机器人硬件与任务管线中。
当前具身智能领域虽不乏开源模型,但将其成功部署至真实机器人仍面临巨大工程鸿沟。机器人本体在机械结构、执行器规格、传感器融合方案及控制接口上的差异,迫使开发团队投入大量资源进行定制化适配。这套工程化链路,以往常被视为各团队的核心竞争壁垒。
灵波此次开源的,正是打通这一壁垒的关键工具集。它系统性地覆盖了四个核心环节:支持多源LeRobot数据融合与关节维度映射标准化的预处理工具、针对真机交互优化的训练配置方案、用于效果验证的离线评估工具,以及支持编译加速的轻量化部署模块。工具链还提供了含深度感知与不含深度的双版本,以适应不同团队的传感器配置现状。
作为基础,LingBot-VLA本身是一个经过大规模真实数据预训练的具身基座模型。其预训练数据超过2万小时,覆盖9种主流双臂机器人构型,在跨本体与跨任务泛化能力上表现突出。根据官方评测,在真机与仿真环境中,其性能均超越行业基准π0.5,并已与乐聚、松灵、星海图等多家机器人厂商完成多机型验证与部署。
其数据效率尤为值得关注。据披露,LingBot-VLA仅需约150条高质量任务演示数据,即可实现有效的任务迁移。这得益于其底层代码库的深度优化,使得训练效率达到StarVLA、OpenPI等主流框架的1.5至2.8倍,显著降低了模型定制所需的标注数据与算力成本。
目前,LingBot-VLA的完整代码库已在GitHub开源,模型权重同步发布于Hugging Face与ModelScope平台。这为致力于具身智能应用落地的团队,提供了一个从模型选型到真机部署的端到端工程化参考。

