时间:26-04-26
Counterpoint Research于3月13日发布的最新预测指出,AI服务器专用计算芯片(ASIC)对高带宽内存(HBM)的需求正呈现指数级增长。报告预计,到2028年,该细分市场的HBM需求量将达到2024年水平的35倍。与此同时,单颗AI ASIC芯片的平均HBM堆叠容量也将提升近5倍,这直接反映了模型复杂度与算力需求的飙升。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
从需求端驱动因素分析,谷歌及其TPU系列芯片构成了当前市场的核心支柱。其激进的芯片迭代策略与大规模数据中心部署,是HBM需求预测上调的关键。数据显示,谷歌一家就占据了AI ASIC领域58.5%的HBM采购份额,亚马逊以20.3%的份额紧随其后,两家科技巨头共同定义了市场需求的基本盘。
在技术迭代路径上,HBM3E因其成熟的生态与性价比,在中期内仍将是主流选择,预计在AI ASIC中占比56.3%。而面向下一代的HBM4及HBM4E标准,虽逐步向定制化、更高带宽方向演进,预计到2028年将共同占据37.7%的市场份额,标志着内存架构正从通用型向专用型过渡。
供应链竞争态势正在重塑。三星电子凭借其在封装技术与产能上的加速投资,有望从当前主导者SK海力士手中夺回部分市场份额。在更上游的先进封装环节,台积电的CoWoS技术仍主导AI ASIC的集成方案,但英特尔代工服务的EMIB-T封装技术也正获得更多设计公司的评估,为供应链多元化提供了潜在选项。