寒武纪宣布实现 DeepSeek-V4全系列模型 Day0适配并开源优化代码
寒武纪完成DeepSeek-V4全系列“Day0”适配
今天,AI算力领域传来一则重磅消息:寒武纪宣布,已基于vLLM推理框架,完成了对深度求索最新开源模型DeepSeek-V4全系列的“Day0”适配。这意味着,从模型发布当天起,无论是拥有2850亿参数的Flash版本,还是规模高达1.6万亿参数的Pro版本,都能在寒武纪的硬件平台上稳定、高效地跑起来。更值得关注的是,相关的适配代码已经第一时间在GitHub社区开源,为整个开发者生态提供了即战力。
攻克复杂结构:专项优化与极致内核
DeepSeek-V4并非一个“标准”模型,其独特的稀疏注意力与压缩结构,对底层算力提出了不小的挑战。为了应对这一难题,寒武纪的工程团队动用了自研的向量融合算子库Torch-MLU-Ops,对模型中的Compressor等核心模块进行了专项加速。他们利用BangC高性能编程语言,亲手编写了稀疏Attention及GroupGemm等关键算子的极致优化内核,可以说是在最底层的计算单元上“精雕细琢”。
这还不够。为了充分发挥硬件潜力,团队在vLLM框架中全面支持了TP(张量并行)、PP(流水线并行)、SP(序列并行)、DP(数据并行)及EP(专家并行)这五维混合并行策略,同时整合了低精度量化与PD(预填充与解码)分离部署等先进技术。这一系列组合拳的目标非常明确:在严格满足推理延迟要求的前提下,将端到端的词元吞吐能力推向极致。
硬件深度协同:挖掘MLU的隐藏潜力
软件优化是“上半场”,硬件协同则是决定最终性能的“下半场”。面对DeepSeek-V4复杂的索引结构,寒武纪深度挖掘了其MLU(机器学习单元)的访存与排序加速特性。凭借其高互联带宽与低延迟通信的固有优势,该方案最大限度地降低了在Prefill(预填充)和Decode(解码)两大关键场景下的通信损耗。最终效果显而易见:推理过程的计算利用率得到了显著提升,硬件性能被更充分地“榨取”了出来。
行业意义:从适配能力到产业成熟
为什么这次“Day0”适配如此引人注目?行业分析给出了答案。DeepSeek-V4凭借其百万字(1M)级别的超长上下文处理能力和顶尖的逻辑推理性能,本身就对底层算力架构提出了极为严苛的要求。寒武纪能够在模型发布首日就完成如此大规模、复杂结构的适配,这本身就是一个强有力的信号。
它首先展示了国产算力平台对于前沿、超大规模AI模型强大的承载与支撑能力。更进一步看,这预示着国产AI产业链在“软硬协同”层面已经迈入了一个新的成熟阶段。从芯片、驱动、算子库到推理框架,整个技术栈的快速响应与深度优化,正在为各类大模型应用的普惠化,构筑起一个高效、可靠的算力底座。话说回来,当底层算力不再成为瓶颈,创新的焦点才能真正回归到模型与应用本身,这才是推动整个行业向前发展的关键所在。