时间:26-04-01
北京智源人工智能研究院今日公布了一项标志性验证成果。该研究首次在统一的FlagOS技术栈上,成功完成了从底层硬件到上层模型的端到端全要素跑通,覆盖六款异构AI芯片、三大主流模型架构,并成功验证了同构与异构千卡集群的协同训练能力。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
作为核心硬件合作伙伴,摩尔线程提供了其旗舰级的MTT S5000 AI训推一体GPU智算卡。本次验证的关键在于,该卡完成了对FlagOS训练所需完整软件栈的全面适配与集成。
这套软件栈构成了大模型训练的核心技术链,包括负责资源调度的FlagScale框架、基于Megatron-LM的分布式训练架构,以及Transformer Engine、Triton算子库和FlagCX通信库等核心组件。这意味着从集群调度、模型并行到算子加速与跨节点通信的完整技术路径已实现贯通。
验证结果的数据表现具有明确的说服力。基于MTT S5000,团队完成了Qwen3-0.6B语言模型长达1T Tokens的数据规模训练,整个过程持续6天以上,累计执行超过14000个训练步,系统全程保持稳定,未发生中断。
训练产出的模型,其损失曲线与行业基准高度一致,平均相对误差低于0.82%。在后续的标准下游任务评估中,模型性能甚至超过基准指标1.65个百分点。这一系列数据证实,基于MTT S5000构建的算力解决方案,能够支撑大模型从训练到产出全流程的稳定与高效。