苹果AI发布7亿参数开源语言模型DCLM 准确率提高、计算资源占用降低

2026-05-01阅读 0热度 0
其他

苹果AI发布7亿参数开源语言模型DCLM 准确率提高、计算资源占用降低

最近,AI圈子里有个新动向值得关注:苹果公司的研究团队联手华盛顿大学等机构,正式开源了一款名为DCLM的语言模型。别看它参数规模“仅”为7亿,其训练用到的数据令牌量却达到了惊人的2.5万亿。这个组合,瞄准了一个核心命题——如何让模型更聪明地理解和生成语言。

那么,语言模型到底是什么?简单来说,你可以把它想象成一个精通语言的“数字大脑”,从翻译、写作到分析文本情感,它都能胜任。但要练就这样一个“大脑”,高质量的数据集是绝对的“硬通货”。问题在于,获取和提炼这些数据从来都不轻松:海量信息中混杂着无关甚至有害的内容,重复冗余更是家常便饭,筛选和清洗工作既繁重又关键。

数据质量这道坎儿,到底该怎么系统化地跨越?苹果团队给出的答案是一个叫做“数据集竞争”(DataComp for Language Models, DCLM)的优化框架。如今,他们已经把相关模型和数据集在Hugging Face平台上全面开源。开源套件里包含了DCLM-7B、DCLM-1B等多个版本,为研究人员提供了一个绝佳的“实验场”,让大家可以放开手脚,去验证和发现最高效的数据整理策略。

苹果AI发布7亿参数开源语言模型DCLM 准确率提高、计算资源占用降低

项目地址:https://huggingface.co/collections/mlfoundations/dclm-669938432ef5162d0d0bc14b

DCLM的巧妙之处,在于它提供了一套结构清晰、可复现的工作流程。研究人员可以像做对比实验一样,灵活选择从4.12亿到7亿不同规模的模型作为“测试对象”,再搭配各种数据清洗方法,比如去重或内容过滤,进行组合测试。这种系统化的“排列组合”,能让人一眼看清不同数据集质量的优劣。这不仅仅是为后续研究铺平了道路,更重要的是,它帮助我们理清了思路:提升模型表现,从优化数据集这个源头入手,往往能事半功倍。

效果如何?用DCLM框架产出的基准数据集,团队训练出的那个7亿参数模型,交出了一份亮眼的成绩单:在衡量模型知识与推理能力的MMLU基准测试中,其5-shot准确率达到了64%。这个数字比之前同规模模型的最好成绩足足高出6.6个百分点,更关键的是,达成这个性能所消耗的计算资源反而减少了40%。对比来看,DCLM基线模型的表现,已经能和参数规模更大的Mistral-7B-v0.3以及Llama3 8B等模型掰掰手腕,而后两者的“胃口”(计算消耗)可要大得多。

可以说,DCLM的推出,为语言模型研究领域立下了一个新的参照系。它指明了一条系统化提升模型性能的路径,而“更优性能,更低消耗”这个看似矛盾的目标,也由此变得清晰可实现。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策