商汤亮相2026中关村论坛 披露AI原生云算力服务实践路径
2026中关村论坛:AI原生云如何重塑算力供给范式?
在2026中关村论坛上,趋境科技与九源智能计算系统生态联合体主导的专题研讨会,聚焦于算力基础设施的演进。商汤大装置首席架构师项铁尧的主题演讲《商汤大装置AI原生云基础设施探索与实践》,不仅剖析了AI原生时代的算力基建逻辑,更完整呈现了将底层软硬件能力转化为客户可高效调用的算力服务的系统化路径。
大语言模型与多模态生成式AI的规模化部署,正面临一个核心矛盾:全球AI算力需求年增速超过十倍,而基于通用计算设计的传统云架构,在处理高并发、异构化的AI负载时已显露出结构性不足。这直接导致了算力利用率低迷、调度僵化以及技术门槛高企,使得算力供需的错配成为制约AI产业规模化的关键瓶颈。
这一挑战具有普遍性。许多企业投入巨资构建的GPU集群,在实际的大模型训练中,算力利用率常低于30%,大量计算资源处于闲置状态。同时,技术团队不得不耗费大量精力进行底层硬件运维与调优,严重迟滞了业务创新的迭代速度。
此前,行业主要通过“堆叠硬件”来应对算力缺口。然而,面对复杂度呈指数级增长的AI任务,单纯的硬件扩容已接近效能边界。这如同为传统车辆装配高性能引擎,若缺乏与之匹配的传动与控制系统,整体性能仍无法释放。因此,为AI场景从头设计的“原生云”架构,已成为突破瓶颈的共识性方向。
AI原生云的核心价值究竟是什么?项铁尧明确指出,其根本目标在于将底层硬件的强大算力,无缝转化为客户可便捷、稳定、高效使用的服务。商汤大装置的实践体系,正是围绕**可用性、易用性与高效性**这三个维度进行构建的。
在架构层面,商汤大装置采用了“AI算力池化与虚拟集群”的设计。这一架构的关键突破在于,它超越了单服务器或物理集群的限制,能够根据客户差异化的业务需求——无论是大规模语言模型训练、自动驾驶仿真,还是工业数字孪生——实现算力资源的动态编排与弹性供给,从基础设施层面保障了算力输出的稳定性与灵活性。
针对易用性这一长期痛点,商汤的策略是“将复杂性封装于底层,将简洁性呈现给用户”。通过将硬件适配、环境部署、任务调度与性能优化等底层工作前置并完成平台化集成,用户无需具备深厚的硬件专业知识,即可像调用公共资源一样,快速获取并管理所需的算力,显著降低了AI研发与部署的初始门槛。
目前,该架构已在商汤运营的多个智算中心得到规模化验证。运营数据显示,相较于传统云架构,其承载的AI任务平均算力利用率提升超过60%,任务完成效率也提高了40%以上,效能提升显著。
纵观行业,国内智算中心的建设正从早期的“规模竞赛”转向“服务能力竞争”。市场分析同样指向这一趋势,AI原生云服务的市场规模预计将在2028年达到千亿级别。
商汤大装置的探索为行业提供了关键范本。它清晰地表明,未来算力服务的核心竞争力,将不再取决于硬件参数的简单叠加,而在于软硬件深度协同带来的智能化调度与全局优化能力。能够灵活适配多元AI场景、实现弹性智能调度、并提供极简使用体验的算力服务,将成为驱动AI产业持续演进的核心基础设施。