亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用
亚马逊AWS联手Cerebras,推出混合AI推理新方案
科技界又迎来重磅合作。3月13日,亚马逊AWS与晶圆级AI芯片企业Cerebras共同宣布,将在未来数月内通过Amazon Bedrock平台部署创新的混合AI推理系统。这套方案的最大亮点?据说能带来当前最快的负载处理速度。
那么,这套系统究竟如何实现高性能?关键在于巧妙的芯片分工。解决方案将Cerebras的CS-3系统、亚马逊AWS的Trainium芯片和EFA弹性网络适配器有机结合。具体来说,Trainium芯片负责推理的预填充阶段,也就是提示处理;而CS-3则专注于解码环节,承担输出生成任务。两者通过高性能的EFA网络适配器紧密连接。
这种分工背后有着深刻的技术逻辑。推理预填充本质上属于并行工作负载,对计算能力要求极高,同时需要适中的内存带宽支持。相比之下,推理解码则是典型的串行任务,虽然对算力需求相对较小,但对内存带宽的要求却异常苛刻。将Trainium和CS-3组合使用,正好发挥了两款AI芯片各自的架构优势,实现了性能的最佳匹配。最终结果?用户将获得前所未有的推理体验。

