DeepSeek加速AI变革:万字长文解析Infra核心趋势与实战指南

2026-05-16阅读 0热度 0
其他

DeepSeek的横空出世,不仅点燃了AI基础设施(AI Infra)的更多可能性,也悄然重塑了行业的竞争格局。一个核心问题随之浮出水面:在DeepSeek确立的新范式下,其他厂商能否追赶甚至超越?这直接决定了他们能否继续留在牌桌上。当前,AI Infra领域无疑已进入新一轮的洗牌期。

近期,一场主题为“AI Infra变革进行时”的线上圆桌沙龙汇聚了多位行业一线的实践者与观察者。与会嘉宾围绕成本压缩下的商业模式、DeepSeek对国产芯片的启示、开源生态构建等关键议题,展开了深度探讨。

DeepSeek的影响初探

讨论的开端,自然离不开DeepSeek带来的冲击波。从技术路线、成本结构到合作模式,其影响是全方位的。

魔形智能创始人徐凌杰指出,DeepSeek带来的最大启示在于“端到端”的系统性思维。传统上,算法团队追求模型效果,工程团队负责降本增效,两者往往割裂。而DeepSeek从训练阶段就充分考虑了如何实现低成本推理,将算法、工程及落地效应整条链路彻底打通。这对AI Infra公司的人才培养提出了更高要求——未来的工程师需要既懂集群互联、文件系统,也需理解模型架构与分布式策略。

“这既打开了可能性,也打开了竞争格局。”徐凌杰总结道,“大家都在追随甚至试图超越这个范式,这是一个非常激动人心的时刻。”

清程极智联合创始人师天麾则从市场感知层面分享了观察:DeepSeek最直接的影响是让企业真切意识到AI的强大与可用性,从而激发了私有化部署的旺盛需求。然而,许多企业仍在观望,担忧AI能否真正赋能业务。他给出的建议务实而灵活:企业不必一开始就追求部署“满血版”大模型,可以从成本更低的蒸馏模型或量化版本入手,在小范围验证价值后,再逐步升级。

探微芯联CEO刘学从硬件设计角度提出了三点思考:DeepSeek首先展示了在有限硬件(2048卡集群)下突破约束的系统能力;其次,它凸显了通信的极端重要性,甚至首次提出将通信从GPU的SM核卸载;最后,其MLA和MoE架构对KVCache在GPU间的搬运提出了更高要求,这促使业界重新思考下一代AI硬件的设计方向。

成本压缩下的商业模式博弈

随着DeepSeek将推理成本降至百万token仅16元,整个行业的成本压力陡增。云上MaaS(模型即服务)能否盈利?初创公司的机会在哪里?

徐凌杰分析,中国市场呈现出云上大规模并发与线下私有化部署并存的二元格局。追求极致性价比的大规模服务必然走向云端;而对数据安全、定制化有要求的需求则留在了线下。后者,正是初创公司可以发挥灵活性与服务深度的战场。“大厂偏爱标准化产品,而初创公司更愿意提供深入的、定制化的端到端服务,决策链也更短。”师天麾补充道。

关于MaaS的盈利前景,师天麾认为需综合算力规模、优化程度、客户付费能力等多重因素动态看待。算力成本会随着硬件架构与工艺的进步而降低,模型价格也将持续变化。长期来看,MaaS与本地化部署将共存。

对于初创公司如何立足,徐凌杰给出了三个关键词:壁垒、可落地、可复制。在资源有限的情况下,找到长期的差异化锚点至关重要。他特别指出,随着模型规模与上下文长度增长,构建大规模、高互联的Scale-up集群成为明确趋势,这其中涉及的散热、供电、高速互联等工程挑战,构成了极高的壁垒,也孕育着巨大的机会。

国产芯片的机遇与挑战

DeepSeek的爆发,对国产芯片是机遇多过挑战,这已成为与会嘉宾的共识。

最直接的推动是市场需求的大幅增长。企业私有化部署的兴起,为国产芯片提供了更广阔的应用场景。同时,复杂的MoE模型推理也对显存容量、芯片间互联技术提出了更高要求,这倒逼国产芯片在这些短板上加速追赶。

然而,挑战客观存在。徐凌杰坦言,春节后已有多家企业规划部署352卡、384卡甚至千卡级集群,但大规模分布式系统的调试难度极高,目前尚未有公开的成功案例。硬件上,多数国产GPU仍依赖PCIe进行机内直连,缺乏类似NVSwitch的高速互联技术;软件生态的易用性更是需要长期投入的环节。

“这是一个新的洗牌过程。”徐凌杰判断。如果完全跟随英伟达的Scale-up技术路线,国内厂商尚可凭借“后发优势”追赶;而一旦面临更严格的禁运,技术模仿的路径被阻断,反而可能迫使中国走出一条独特的创新之路。“无论如何,我们都要做好准备。”

刘学则从技术路径多样性角度分析,除了主流的GPGPU路线,专注于特定场景的ASIC,以及像Cerebras、Groq这样探索不同架构的玩家,都有其生存空间。关键在于能否在计算、通信、存储的协同设计上找到最优解。

构建开源生态的启示录

DeepSeek选择开源,其影响远超技术本身,触及了生态构建与商业模式的根本。

师天麾认为,开源是一种“结交更多朋友”的策略,能快速扩大影响力并汇聚社区力量,共同推进技术进步。其所在公司开源的“赤兔推理引擎”,正是秉持这一理念,希望吸引芯片、模型厂商和开发者共同完善国产生态。

徐凌杰将开源视为团队强大自信的体现,也是吸引人才、建立品牌的重要手段。但他也提醒,开源社区知识平权的速度极快,技术秘密难以长久保持。对于初创公司而言,护城河必须建立在可持续的迭代能力和深厚的工程壁垒之上。“MaaS是一项核心能力,但仅凭此做生意可能很容易被碘伏。”

刘学关注开源对硬件标准的推动。他认为,无论是做Scale-up解决方案还是设计芯片,在上层为开发者和用户开放适当的软件接口(类似英伟达的PTX指令集),对于构建繁荣的生态至关重要。

前沿技术:硅光与英伟达的“阳谋”

圆桌也探讨了硅光(CPO)等前沿技术。嘉宾们一致认为,将光通信模块与芯片共封装,以降低功耗、提升带宽,是确定性的技术趋势。刘学分享行业共识:硅光产品预计在2026-2027年实现小批量交付,2028-2030年进入大规模落地阶段。徐凌杰指出,中国在光技术领域有独特优势,因为光器件对先进制程依赖较低,这可能是实现弯道超车的机会点之一。

谈及英伟达在GTC上开源的Dynamo推理服务框架,师天麾认为这展现了其巩固软件生态护城河的野心。对于国内生态的启示在于,需要学习如何构建更底层的、开放的软件栈来支撑国产硬件。徐凌杰则看到,英伟达正从一个芯片公司演变为真正的“基础设施公司”,其提供的工具链越完善,对上下游的整合能力就越强,这既带来了学习范本,也预示着更激烈的生态竞争。

展望未来:仰望星空与脚踏实地

圆桌最后,嘉宾们分享了他们对AI Infra行业的愿景。

师天麾的愿景聚焦于价值:“我们始终想做最有价值的事情,优先看有没有给中国的AI生态带来价值,推进整个产业发展。”

徐凌杰用“仰望星空”与“脚踏实地”来概括:星空之上,未来数据中心将消耗全球相当比例的电力,其中AI占比巨大,每一次能效提升都意义非凡;脚踏实地,则是在风高浪急的行业变革中,确保公司能稳健航行,将产品与解决方案的蓝图一步步实现。

刘学从历史维度总结:过去十年是芯片设计的黄金时代,而现在我们正处在算力、算法与基础设施协同演进的大时代。未来面临算法创新、训练效率与规模扩展三大挑战,而“专注通信、聚焦集群”将是应对这些挑战的关键。

可以预见,DeepSeek掀起的浪潮只是开始。在成本、性能、生态的多重压力下,AI Infra的每一环——从芯片、互联、软件到整体解决方案——都将经历深刻的变革与重构。唯有兼具技术创新与务实精神的玩家,才能在这场新的牌局中赢得席位。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策