时间:26-04-25
最近有个观点在业内引起了不小震动。被誉为“高带宽内存之父”的韩国学者金正浩提出,人工智能计算的焦点,正以前所未有的速度,从图形处理器转向存储系统。这可不是细微调整,而是一场根本性的重心迁移。随着AI从单纯的生成内容,迈向能自主决策、持续学习的“智能体”时代,大家恍然发现,存储能力,已然成了卡住技术脖子的那只手。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
背后的推手是什么?是“上下文工程”的崛起。新一代的AI,不再满足于处理孤立的指令,它需要同步消化海量的文本流、视频流,以及五花八门的模态数据。这就好比让一个学者做研究,过去是给他一本书,现在是把整个图书馆的实时数据流都推到他面前,还要他立刻理出头绪、给出答案。
要支撑如此复杂的任务,存储系统面临的挑战是碘伏性的。带宽和容量需要实现跃升,这个幅度不是百分之几十,而是几百倍甚至上千倍。更关键的是,这种增长并非线性。当输入数据的规模扩大百倍千倍时,对存储资源的需求,可能会呈现出一种令人咋舌的指数级膨胀,在某些极端场景下,需求膨胀百万倍也并非天方夜谭。
那么,现有的技术能扛住吗?金正浩的判断略显谨慎。他认为,当前主流的高带宽内存技术,其基础是堆叠动态随机存取存储器。这套方案在智能体时代对存储规模和持续吞吐能力的苛刻要求面前,恐怕会越来越力不从心。
于是,一种新兴方案进入了核心视野:高带宽闪存。技术思路颇具巧思——用堆叠式NAND闪存,替换掉传统的DRAM,从而构建起一个具备极大规模的长期存储架构。它的最大杀手锏就是容量,优势可以达到数量级的提升。你可以把它想象成一个高效运转的“巨型书架”,能够海纳百川,从容存放那些需要随时调取但访问频率各异的海量数据。
这意味着什么?金正浩进一步点明,这一技术演进很可能动摇现有的产业权力结构。存储系统的重要性将急剧攀升,其战略地位,甚至有望逐步超越传统的处理器。未来的系统设计逻辑,很可能发生一百八十度转弯:以超大容量存储为核心,处理器则“降格”为嵌入其中的高效执行单元,一切围绕数据的存储与流动来展开。
理论正在快步走向实践。今年二月,已有企业向电气与电子工程师学会提交了一份名为“H3架构”的技术方案,率先实现了高带宽内存与高带宽闪存的混合部署。这个方案的思路很清晰:让两者各司其职,打好配合。高带宽闪存凭借其巨量容量,作为二级扩展层,专门承载那些主要用来读取的“冷数据”或历史数据;而高带宽内存则专注于处理需要低延迟、高频访问的“热数据”,确保即时响应的效率。
市场节奏也在加快。据行业预测,高带宽闪存的工程样品有望在2027年前后亮相。一些头部的科技巨头,或许在2028年就能将其整合进自己的产品体系之中。可以预见,围绕这项技术的竞赛将迅速升温,格局很可能复现当年高带宽内存初兴时的景象——各大存储厂商将在新一轮的技术浪潮中,展开一轮深度较量。
说到底,人工智能的竞赛,下半场可能不再仅仅取决于谁的计算更快,而更在于谁能更高效、更经济地管理和喂饱那些永不满足的“数据胃口”。存储,这个曾经的后台角色,正在大步走向舞台中央。