时间:26-04-24
距离NVIDIA GTC 2026大会(3月16日至19日)开幕越来越近,黄仁勋已经提前放出风声,预告将发布一款“让世界震惊的芯片”。市场的目光,正被牢牢锁定在这场即将到来的技术盛宴上。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
根据韩国媒体Chosun Biz的报道,英伟达极有可能在本次大会上抛出下一代芯片的代号——Feynman,并首次公开展示其采用台积电A16工艺的产品方向。这意味着,市场对其算力路线图的关注焦点,将从即将量产的Rubin平台,进一步推向更远的未来周期。
诚然,每年的GTC都不乏震撼性的产品发布,但今年的峰会似乎有些不同。AI发展至今,正卡在一个关键的“变道”路口:行业早期的重心在于“如何把模型训练出来”,而眼下,更紧迫的命题变成了“如何让这些庞然大物高效、经济地跑起来干活”。这好比考取驾照只是第一步,真正能在复杂路况下安全、流畅驾驶,才是硬实力。
我们知道,Rubin平台(VeraCPU + Rubin GPU)刚刚进入量产阶段,但英伟达的研发望远镜已经对准了更遥远的星空——那就是计划接替Rubin的新一代数据中心GPU架构“Feynman”。
综合韩国媒体及供应链消息,Feynman有望成为全球首款采用台积电A16制程的AI芯片。这无疑将把芯片制造与设计的前沿,再向前推进一步。
尽管关于Feynman芯片本身的细节尚属机密,但其背后的基石——台积电A16工艺,无疑是当前半导体制造皇冠上的明珠。它究竟强在哪里?我们可以简单拆解一下。
A16常被称作“1.6nm”,但这更多是一个技术代际的营销代号,而非晶体管的实际物理尺寸。它真正的突破性,在于实现了两大“首次”:
首先,是首次导入GAA晶体管。在A16之前的3nm、5nm时代,主流技术是FinFET(鳍式场效应晶体管),你可以把它想象成一片片竖立的“鱼鳍”,电流沿其表面流动。而到了A16,则切换到了GAA(环绕式闸极)纳米片晶体管。这相当于把“鱼鳍”放倒,堆叠成一层层水平的“纳米片”,栅极从上下左右四个方向将通道完全包裹。这种结构对电流的控制更为精准,能显著减少漏电,在提升性能的同时也更省电。
其次,也是A16最核心的创新:超级电轨(SPR)技术。这才是真正的“杀手锏”。传统芯片设计中,供电线和信号线都拥挤在芯片的正面金属层,好比老旧小区的墙面上,电线、网线、电话线杂乱交错,相互干扰严重。台积电的SPR技术做了一件堪称“碘伏”的事:将主要的供电网络全部转移到晶圆背面。
这就好比给房子做了一次彻底的隐蔽工程改造,把所有粗大的电缆、水管预先埋设在地板下和墙体背面。于是,建筑正面墙面变得清爽整洁,只留下必要的接口。对应到芯片上,正面腾出的宝贵空间可以全部用于布置信号线,逻辑密度自然大幅提升。同时,供电线路走背面路径更短、电阻更小,长期困扰高性能芯片的“IR Drop”(压降)问题——类似于一启动大功率电器全屋灯光就变暗的现象——将得到极大缓解,供电效率更高。
在具体性能指标上,与之前的N2P制程相比,A16在相同电压下可实现8%到10%的速度提升;若维持相同性能,功耗则可降低15%到20%。此外,芯片密度最高能提升至1.1倍,意味着在同等面积内,能塞进更多晶体管。
更值得关注的是客户格局。行业分析网站Wccftech认为,英伟达将成为A16节点进入大规模量产阶段后的首位客户,并且“很可能在初期是唯一客户”。
至于量产时间表,台积电A16制程预计在2026年下半年正式量产,而基于此的Feynman芯片则预计在2028年问世。但本届GTC上对其架构的预览,无疑将为未来三年AI算力密度的天花板定下基调。
除了采用顶级的A16制程,还有分析推测Feynman可能首次集成来自Groq的LPU(语言处理单元)硬件栈。这一讨论的出发点在于,随着AI推理需求爆发,延迟(Latency)正成为GPU厂商重点优化的核心指标之一。
在封装与集成方式上,市场推测英伟达可能采用类似“混合键合”的先进路径,将LPU单元作为芯片封装内的可选模块(on-package)。其实现思路,常被拿来与AMD在消费级CPU上集成3D V-Cache的技术进行类比。
不过,Wccftech也同时指出,这种高度集成的设计会显著增加工程复杂度和生产难度。这意味着,即便技术方向明确,最终的落地节奏仍将高度依赖于工程实现的复杂度与制造工艺的成熟度。
芯片制程的每一次跃进,都在倒逼上游产业链发生革命。采用台积电A16工艺后,传统的PCB(印制电路板)材料将难以满足高速信号传输要求。CCL(覆铜板)必须从当前的M7/M8级别向M9升级,其介电损耗(Df)需低于0.001。这将驱动低介电常数(Dk)玻纤布、BCB树脂以及表面粗糙度达亚微米级的HVLP铜箔等高端材料的渗透率快速提升。与此同时,CPO(共封装光学)技术的落地,将催生对外部激光源、光纤连接单元(FAU)、MT插芯等光学组件的海量需求。
除此之外,黄仁勋近期频繁提及的“AI的尽头是电力”,也预示着本届GTC的讨论将超越芯片本身,延伸至数据中心的能源架构。随着单个机柜功耗向百千瓦级别激增,数据中心的供电方式面临根本性重构。高压直流(HVDC)供电、核能等新型能源方案,将成为大会的隐性议题。英伟达的角色,正从提供算力芯片转向输出完整的“数据中心能源-算力一体化解决方案”。这种转变意味着,未来大型AI集群的部署速度,其瓶颈可能不再是光刻机,而是电网的扩容能力与散热技术的创新水平。
最后,随着专为低延迟推理设计的LPU芯片,以及连接数字与物理世界的“物理AI”平台推出,AI将真正走出云端数据中心,进入现实世界的各个角落。机器人、自动驾驶、数字工厂等实体智能应用,将成为GTC上不容忽视的“隐形主角”。当推理延迟被压缩到毫秒级以下,且能效比实现数量级提升时,那些需要复杂实时交互的AI应用,才真正具备了大规模商业化落地的技术基础。
尽管关于Feynman芯片的更多技术细节尚待揭晓,但从目前已浮出水面的信息足以看出,英伟达正在重新定义AI竞赛的入场规则。未来的竞争,将不再仅仅是采购多少块GPU,而是对先进封装、光学互联、能源规划、材料科学等全栈能力的综合掌控。
可以说,2026年的GTC大会,其意义远不止于发布一块更快的“显卡”。它是在系统性地重新设计未来五年AI的“运行方式”、“动力来源”与“落地场景”。这届大会传递出一个清晰的信号:AI的进化远未减速,它正从服务器机柜和智能手机中跃然而出,准备全面拥抱并重塑我们的物理世界。