新华三AI基础设施测评:从力大砖飞到拟态共生的系统级进化指南

2026-05-15阅读 0热度 0
基础设施

Scaling Law曾主导了AI行业的演进逻辑:通过持续增加算力、数据和参数规模,来激发模型的智能涌现。

如今,Agent时代的到来正将算力需求的重心从预训练转向推理。海量的Token消耗正在重塑产业的价值评估标准。在“Token经济学”的框架下,竞争焦点已转向追求更低的延迟与更高的能源效率。

当规模扩张的边际收益开始衰减,行业面临的核心命题是:如何在有限的能源、空间与信息边界内,实现更高密度的智能产出?

在NA VIGATE 2026领航者峰会上,新华三集团技术委员会副主席刘新民明确指出:AI基础设施的竞争,已从单纯的硬件性能竞赛,迈入了以系统重构与架构创新为核心的“系统工程竞争”新阶段。

01 拒绝“参数崇拜”:从“设备思维”到“系统思维”

面对全行业对参数和规模的狂热追逐,刘新民提出了一个深刻的悖论:“如果设备参数如此强大,为什么我们还需要进行系统调优?”

这一问,精准揭示了AI时代最根本的产业变革。

在传统ICT领域,设备能力的评估逻辑相对直接,核心是比拼CPU性能、网络带宽、存储IOPS等静态指标。人们曾认为,只要将顶级的算力卡、高速无损网络与大容量存储简单连接,就能释放最大效能。

然而,大模型推理是一个动态协同的过程。Token的生成效率不仅取决于单体硬件性能,更依赖于底层架构的数据流转效率。即便硬件指标再高,若系统架构存在瓶颈,模型运行依然无法达到“通透”状态。硬件堆砌定义了理论性能上限,而深度的系统工程能力,才真正决定了算力转化为实际生产力的效率。

为何传统的“设备思维”难以为继?刘新民在演讲中指出了三个结构性的“剪刀差”。

首先是数据的“剪刀差”。

互联网上的高质量文本数据已接近枯竭,而大模型对优质语料的需求仍在爆炸式增长。在数据孤岛与合成数据质量参差不齐的制约下,核心矛盾并非数据总量不足,而是缺乏可信、可用的高价值数据。

其次是算力的“剪刀差”。

随着芯片制程逼近物理极限,摩尔定律的放缓已成定局。更严峻的挑战来自传统冯·诺依曼架构的瓶颈——在大模型的训练与推理中,超过95%的计算时间被消耗在数据搬运上,而非实际计算。

最后是能源的“剪刀差”。

AI算力需求每一年即可翻倍,而传统电网基础设施的规划与扩容周期长达5到10年。能源供给的线性增长,可能永远无法匹配功耗需求的指数曲线,单纯的硬件扩容必将遭遇“能源墙”的制约。

这三重“剪刀差”揭示了一个核心事实:算力底座的进化,绝非单一要素的优化,而必须是一场全局性的系统进化。

刘新民分享了一段内部经历:“我们曾有一个解决方案,从产品配置、参数指标到理论方案都堪称完美,但在实际落地中总感觉竞争力不足。团队耗费半年时间,重新打磨每一个细节:设备组合方式、网络优化策略、链路调度逻辑、资源分配机制,乃至系统各层级的协同效率。最终发现,真正拉开差距的并非多堆几张算力卡,而是隐藏在系统背后的工程化能力。”

作为ICT领域的务实践行者,新华三印证了这一趋势:AI基础设施的竞争,正从“设备思维”转向“系统思维”。唯有将复杂系统调校至极致,才能将理论算力转化为实实在在的生产力。

02 打破物理极限:“算—存—云”三位一体的算力底座

回到当前的核心课题:面对海量的Token消耗,如何破解算力体系普遍存在的性能与效率瓶颈?

刘新民的答案是:“算力底座不是硬件的简单堆叠,而是通过系统重构和架构创新,构筑支撑智能体高效运行的坚实基座。”为此,新华三正在构建“算—存—云”三位一体的算力底座。

深入剖析,这套底座的构建依赖于四大核心能力。

第一个是硬件工程能力。

在不盲目“堆硬件”的理念下,新华三深耕硬件设计:通过创新主板、小型化设计、冷板共用等技术,在标准1U空间内集成6颗高性能CPU,实现了“一柜顶五柜”的密度提升。为确保超高密架构稳定运行,新华三推出了业界首个量产的全液冷整机系统,实现了100%全液冷散热。

第二个是极致存储能力。

推理阶段,Token的生产成本主要取决于数据流动效率。新华三的解决方案是针对AI场景进行全栈优化:例如,通过AI算法实现智能缓存预取,提升缓存命中率与读取性能;采用KV Cache加速技术,打破推理中的显存限制与数据瓶颈,使Token首次时延降低90%、重复IO请求节省80%。

第三个是云智融合能力。

通过“通智融合”与“一云多芯”架构,新华三实现了异构算力的统一调度、资源池化与高效复用,保障了业务在10万节点规模下的持续稳定运行。同时,其研发的智算加速引擎将跨节点通信时延降低了50%,并利用算子融合与内存池化技术,打破了单卡显存瓶颈,将模型推理效率提升了20%。

第四个是多元生态能力。

面对GPU种类繁多、标准不一的行业现状,新华三以开放架构为核心,通过构建异构算力生态、算力互联生态与融合软件生态,打造了多元开放的算力体系。其目标是实现多厂商GPU的平滑接入与统一协同,推动算网深度融合,为各行业客户提供更灵活、高效的算力配置方案。

新华三的思路清晰可概括:通过超高密架构与全液冷设计提升硬件性能;利用高性能存储与KV Cache加速突破数据瓶颈;依托“通智融合”调度与AI超融合技术优化资源分配;最终以多元开放的算力生态,实现全域资源的池化与聚合。

需要指出的是,新华三并未止步于蓝图规划,正通过一系列量产产品加速理念落地:

例如,兼容多CPU平台、适配超百款AI加速卡的R5500 G7X模组机型,其单卡功耗释放比上一代提升了42%;面向智算场景的X10000系列XCache推理加速系统,可实现KV多级缓存卸载,在同等算力下将用户并发数与Token产出效率提升10倍;UniPoD S80000系列超节点产品,支持从1024卡超节点Scale-Up扩展至16384卡,同时支持构建73728卡超大规模集群……

刘新民在对话中多次强调:新华三的愿景是通过系统级重构,实现“从每一瓦电力到每一个Token产出”的效率最优化。

03 跨周期的长期主义:构建拟态AI原生基础设施

一个不容回避的现实是:大模型技术正以周为单位迭代,新事物几乎每日涌现,不确定性已成为AI时代的底色。

对于普通观察者,“不确定性”或许意味着想象空间。但对于一家以创新为驱动的技术企业,则必须基于前瞻洞察提前布局,在不确定性中寻找确定性的演进路径。

未来十年的AI基础设施将如何进化?尚无定论,但新华三提供了一个独特的视角。

刘新民在演讲中做了一个生动类比:人类大脑仅需约20瓦的极低功耗,便能驱动感知、决策、思考与行动一体化的高级智能。这种低碳高能、全感官融合、自组织且具备免疫自愈能力的形态,正是未来AI基础设施的终极蓝图。

如何理解“类人智能的拟态AI原生基础设施”?刘新民进一步拆解了六大具备生命特征的形态跨越。

一是计算之“心”:构建多范式混合的高效架构。未来的计算架构将以冯·诺依曼架构为基础,通过光互联耦合存内计算、类脑计算等多种范式,实现算效与能效的最优平衡。

二是联接之“神经”:搭建全域高质、多维融合的网络。未来的联接将是“通感智算一体化”,依托空心光纤等技术突破物理传输极限,并通过空天地一体化与自组织联接实现集群智能协同。

三是存储之“记忆”:塑造主动知识载体。利用类脑存算一体架构,减少数据搬运能耗;通过语义编码与知识固化,将原始数据转化为可随时调用的知识;并将存储嵌入推理链路,实现“以查代算”。

四是交互之“大脑”:构建与物理世界交互的中枢。过去的AI如同“缸中之脑”,未来的智能必须拥有“躯体”,理解物理规律,感知因果关联,让AI从云端走向现实,高效管理万亿级智能体的运行。

五是安全的“免疫”:构建自治自愈的防御体系。未来的安全将告别事后审计,构建具备物理隔离的动态校验屏障、提前识别背离人类价值的恶性逻辑、实现逻辑可审计与因果可追溯等能力。

六是能源之“呼吸”:打造低碳循环的能源基石。未来的AI数据中心将革新传统的供电散热逻辑,构建以Token产出为核心的能源底座,实现算力、电力、热力的精准匹配,让PUE无限趋近于1。

这听起来或许有些超前,但正是新华三锚定下一个十年的战略方向。目前,其已前瞻布局通感算智融合的新型网络、存算一体新型计算范式、内生免疫安全等前沿技术,旨在构筑一个永续共生、内生进化的AI原生基础设施。

一个有力的佐证是,新华三早在数年前便联合科研机构完成了长达2000公里的测试,验证了光技术在长距离传输中的低时延与确定性。这一当时未被广泛理解的前瞻布局,如今已被证实是AI时代的刚性需求。

04 写在最后

当大模型的喧嚣与资本的热潮逐渐平息,产业终将回归商业效率与技术演进的本质。

正如Token经济学所揭示的:AI算力基础设施的使命,已不再是无限堆砌物理参数,而是在系统工程的极限逼近中,找到从每一瓦电力到每一个智能Token产出的最优解。

至少在AGI时代的黎明时分,以新华三为代表的企业,已在技术“无人区”完成了对算力、网络、存储全栈能力的底层重构。它们不断向生命系统的进化智慧汲取灵感,默默为蓬勃发展的数智经济,夯实着最坚固的基石。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策