阿里云确认:李飞飞团队 s1 模型基于 Qwen2.5-32B-Instruct 模型训练
李飞飞团队“低成本炼金术”:50美元微调,能否撼动推理模型格局?
你猜怎么着?最近AI圈有个消息挺“炸裂”:李飞飞教授的研究团队,据说只花了**不到50美元**的云计算成本,就训练出了一个名叫s1的AI推理模型。而且,这个“低成本”模型在数学和编码能力的基准测试中,表现竟能与OpenAI的o1、DeepSeek的R1这些顶尖推理模型掰掰手腕。
不过,故事很快有了新进展。这个s1模型随后被指出“并非从零开始炼造”,它的“地基”其实是阿里的通义千问(Qwen)模型。针对这一说法,新浪科技向阿里云进行了核实,而**阿里云方面的确认,让整个技术路径清晰了起来**。
根据阿里云的官方回应,事情的完整脉络是这样的:“研究团队是以开源的阿里通义千问Qwen2.5-32B-Instruct模型为基座,仅仅动用了16块H100 GPU,进行了26分钟的监督微调,便训练出了新模型s1-32B。最终效果呢?不仅在数学和编码能力上追平了OpenAI的o1和DeepSeek的R1这类尖端推理模型,甚至在竞赛数学问题的测试中,比o1-preview的表现还高出27%。”
话说回来,这种“低成本高效果”的秘诀究竟是什么?其实,早前1AI的报道就透露,s1团队的核心手法是**“蒸馏”技术**。简单理解,这就好比让一个学生去学习顶尖学霸的解题思路和步骤,而不仅仅是背诵最终答案。通过训练模型来学习另一个更强大AI模型的思考过程,从而提炼出其核心的“推理”能力。
s1团队发表的论文进一步阐明了这一点:他们证明,可以采用一种叫监督微调(SFT)的方法,**用相对较小的数据集就能完成对推理模型的“蒸馏”**。在SFT过程中,AI模型会被明确要求模仿数据集中特定的思维链行为。这种方法,远比DeepSeek训练其R1模型所采用的大规模强化学习方法要省钱省力得多,成本效益的优势非常明显。
那么,具体是怎么操作的呢?s1模型是基于阿里巴巴旗下通义千问实验室提供的一个现成、免费的小规模AI模型构建的。为了训练s1,**研究人员只精心制作了一个包含1000个问题的小数据集**。这个数据集的宝贵之处在于,它不仅包含了问题及答案,更关键的是,还附带了谷歌Gemini 2.0 Flash Thinking Experimental模型为每个答案所提供的、详细的“思考”过程。正是这些“思维链”,成为了s1学习推理能力的关键养料。
