蚂蚁开源Ming-lite-omni测评:轻量级多模态大模型精选推荐
蚂蚁集团百灵大模型团队在5月27日技术日正式开源了其统一多模态大模型——Ming-lite-omni。
该模型基于Ling-lite构建,采用MoE架构,定位为全模态模型。其总参数量为220亿,激活参数为30亿。目前,模型权重与推理代码已开放,训练代码及数据将在后续公开。
这是百灵大模型今年开源系列的最新成员。此前,团队已陆续开源了MoE架构大语言模型Ling-lite、Ling-plus,以及多模态模型Ming-lite-uni和预览版Ming-lite-omni-preview。其中,五月中旬开源的Ling-lite-1.5在多项评测中表现接近同量级先进水平。值得关注的是,这些模型均在包含非Hopper架构的国产算力平台上完成训练,验证了在非顶级硬件上训练千亿级先进MoE模型的可行性。
Ming-lite-omni的实际性能如何?根据官方评测,其在多项多模态理解与生成任务上的表现,已与百亿参数级别的领先模型相当甚至有所超越。团队认为,这是目前已知开源模型中,首个在模态支持广度上可比肩GPT-4o的模型。
百灵大模型负责人西亭此前阐述了其产品线命名逻辑:“Ling”指基础大模型,“Ring”为推理版本,“Ming”则专指多模态大模型。他表示,团队的技术路径聚焦于三个核心:早期布局并统一应用MoE架构于语言与多模态模型;积极利用多元化算力平台,验证国产GPU的训练潜力;持续深耕多模态技术,推动生成与理解能力的统一。此次开源的Ming-lite-omni正是这些技术积累的集中体现。
开源仅是起点。百灵团队后续将重点优化Ming-lite-omni的全模态任务性能,并提升其多模态复杂推理能力。同时,参数规模更大的全模态模型Ming-plus-omni已在规划中。西亭还透露,团队正在筹备Ling的“Max”版本,其发布节奏将寻求与DeepSeek-V3版本相当的时机。开源模型社区的竞争态势,预计将持续演进。
