通用AI硬件设计革命:EDA技术未来趋势深度解析

2026-05-15阅读 0热度 0
陈怡然
对话陈怡然:计算与存储的界限正在模糊,AI硬件设计的下一次革命是什么?

近日,杜克大学电子与计算机工程系教授陈怡然接受了ACM的专访。作为记忆与存储系统、神经形态计算等领域的资深学者,同时身兼美国国家科学基金委(NSF)下一代移动网络与边缘计算研究院(Athena)主任等多个要职,陈怡然教授分享了他对计算架构演进、AI能效挑战以及未来技术趋势的深刻洞察。

AI科技评论对这篇采访进行了编译,以下是对话的精要内容。

记忆与存储系统的范式之变

当被问及过去一二十年该领域最令人惊讶的发展时,陈怡然教授指出,计算与存储之间界限的模糊是最激动人心的变革。

这场现代计算范式的革命,始于处理大数据的需求。数据量的激增催生了对于大容量存储设备的渴求,但很快,计算单元与存储设备之间的有限带宽就成了突出的瓶颈——这就是众所周知的“冯·诺伊曼瓶颈”。

于是,让内存和存储系统变得更“智能”,成为缓解系统对内存带宽依赖、加速数据处理的主流解决方案。近内存计算、内存内计算等技术方向应运而生。

这恰恰说明,目标应用的转变(从传统的科学计算转向以数据为中心的计算)是如何从根本上改变计算机架构的设计哲学的。这种理念的革新,催生了一系列新产品,例如智能固态硬盘(SSD)、智能动态随机存取存储器(DRAM)以及数据处理单元(DPU),同时也推动了如3D XPoint内存等新兴存储技术的发展。

更深远的影响是,它促成了非冯·诺伊曼架构的兴起。例如,基于交叉杆阵列的点积引擎,能够通过将计算直接映射到硬件的拓扑结构上来执行向量-矩阵乘法,从而在物理层面突破传统架构的限制。

深度神经网络效率:为何至关重要?

陈怡然教授一篇被高频引用的论文是《Learning Structured Sparsity in Deep Neural Networks》。这篇论文触及了一个核心问题:在追求精度的同时,如何应对深度神经网络(DNN)日益增长的计算开销?

(论文地址:https://dl.acm.org/doi/pdf/10.5555/3157096.3157329)

众所周知,现代DNN凭借其深度和宽度获得了高推理精度,但也付出了高昂的计算代价。然而,神经网络中的连接权重对最终精度的影响并非同等重要。那些接近零的权重连接,其实可以被“修剪”掉(即将权重设为零),而不会对网络准确性产生显著影响。

他们在NeurIPS 2016上发表的这项研究证明,通过学习将非零权重以结构化方式存储在内存中,可以构建稀疏神经网络。这种方法能保持良好的数据局部性,降低缓存未命中率,从而显著提升计算效率。这项被称为“结构化稀疏学习”(或结构化剪枝)的技术及其变体,已被广泛应用于现代高效DNN模型的设计中,并获得了如英特尔Nervana、英伟达安培架构等众多AI计算芯片的支持。

提升DNN效率之所以关键,是因为它直接关系到大型模型能否持续扩展,以及能否部署在计算、存储资源和电力预算都有限的边缘设备与物联网终端上。当前该领域的研究前沿,正呈现出算法与硬件协同创新的趋势。例如,基于新兴纳米器件设计AI翻跟斗,用以加速诸如贝叶斯模型、类量子模型、神经符号模型等新型或尚未被充分开发的AI模型。

Athena项目:重塑未来移动网络

陈怡然教授近期将指导NSF旗下为期5年、总投资2000万美元的旗舰项目——下一代移动网络与边缘计算人工智能研究院(Athena)。该项目汇聚了杜克大学、麻省理工学院、普林斯顿大学、耶鲁大学等多所顶尖学府的力量。

谈及目标,陈教授表示,Athena旨在通过先进的人工智能技术,变革未来移动网络系统的设计、运营与服务。其目标是提供前所未有的性能、支持此前无法实现的服务,同时有效控制系统复杂性与成本。

Athena的研究活动围绕四大核心领域展开:边缘计算系统、计算机系统、网络系统以及服务与应用。所开发的AI技术将为未来移动网络的功能性、异构性、可扩展性与可信赖性奠定理论与技术基础。

此外,Athena还致力于成为连接产学研的枢纽,培育一个新兴技术生态系统,并培养兼具道德与公平价值观的新一代技术领袖。项目的成功,有望重塑移动网络产业的未来格局,创造新的商业模式与创业机会。

设计自动化的智能浪潮与SIGDA的角色

在被问及设计自动化领域最令人兴奋的趋势时,陈怡然教授认为,机器学习技术在电子设计自动化(EDA)工具中的广泛应用无疑是过去十年的亮点。

芯片设计质量长期依赖于设计师的经验,而开发智能EDA工具,让机器能够直接从历史设计数据中学习设计方法,跳过传统繁重的建模过程,成为一种自然的演进思路。如今,各类机器学习模型已被嵌入最新的EDA流程中,用于加速布线布局、功耗估计、时序分析、参数调优和信号完整性验证等环节。

机器学习算法甚至被直接实现在芯片的硬件模块中,用于监测和预测芯片的运行时功耗。陈教授团队获得MICRO 2021最佳论文奖的APOLLO框架,便是这一方向的典型代表。

(论文地址:https://dl.acm.org/doi/pdf/10.1145/3466752.3480064)

作为ACM设计自动化特别兴趣小组(SIGDA)的主席,陈怡然教授也阐述了该组织的使命。SIGDA作为全球主要的EDA专业协会之一,致力于提升全球EDA专业人士与学生的技能与知识。它每年赞助组织超过30场国际与地区会议,编辑支持多种期刊与通讯,并举办大量研讨会、教程、竞赛及研究论坛。通过与产业界合作,SIGDA还为年轻学生、教师和专业人士提供参会资助,并颁发奖项以表彰社区内的杰出贡献者。

展望未来:AI硬件设计的下一场革命

对于未来几年可能产生深远影响的研究方向,陈怡然教授提出了一个颇具前瞻性的观点:通用且可解释的AI计算硬件设计流程,将是EDA与计算系统研究的下一次革命性突破。

过去十年,各种旨在加速AI模型的硬件设计层出不穷。但设计者始终在通用性与效率之间艰难权衡:为了适应不断变化的模型独特结构,往往需要进行大量硬件定制。另一方面,可解释性一直是确保AI模型鲁棒性、推动其设计演进的核心挑战。

未来的AI计算硬件,或许将由一系列对应不同算法模块的、可解释的硬件模块组合而成。整个硬件的性能,由一个通用的设计流程来保障。一种潜在的解决方案是,利用神经符号方法构建可组合的AI模型,并实现与其中符号化算法模块相对应的硬件模块。随后,可以借助扩展的AutoML流程,自动化地完成目标AI计算硬件的设计,从而在保证通用性与可解释性的前提下,实现所需的性能目标。

这场从软硬件协同到设计流程本身的深度智能化变革,正在悄然酝酿。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策