上交大新型SRAM存内计算架构「COMPASS」,开启类脑计算新时代
AIxiv专栏是大新代机器之心发布学术、技术内容的型S新栏目。过去数年,内计机器之心AIxiv专栏接收报道了2000多篇内容,开启覆盖全球各大高校与企业的类脑顶级实验室,有效促进了学术交流与传播。计算如果您有优秀的上交算架工作想要分享,欢迎投稿或者联系报道。大新代投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
团队信息:这一工作由上海交大先进计算机体系结构实验室蒋力教授和刘方鑫助理教授所在课题组(IMPACT)完成,型S新同时也获得了上海期智研究院的内计支持。第一作者是开启博士生汪宗武。
会议介绍
MICRO 全称 IEEE/ACM International Symposium on Microarchitecture,类脑与 ISCA、计算HPCA、上交算架ASPLOS 并称为体系结构「四大顶会」,囊括了当年最先进的体系结构成果,被视作国际前沿体系结构研究的风向标,见证了诸多突破性成果的首次亮相,包括谷歌、英特尔、英伟达等企业在半导体领域的多项技术创新。本次会议共收到投稿 497 篇,收录文章 113 篇,录取率为 22%。
近年来,类脑计算在人工智能领域迅速崛起,尤其是脉冲神经网络(SNN)的出现,为低能耗、高效能计算提供了新的可能。然而,现有的脉冲神经网络在追求高准确性的同时,往往会增加能量消耗和计算延迟,这使得其在边缘设备上的应用面临诸多挑战。为解决这一问题,最新研究提出了一种基于 SRAM 的存内计算(CIM)架构 ——COMPASS,为 SNN 在硬件加速器上的高效部署提供了全新方案。
类脑计算的挑战与突破
传统的深度神经网络(DNN)已经在计算机视觉、自然语言处理和语音识别等领域取得了卓越的成果,但其对计算资源的巨大需求使其在能量效率方面的表现不尽如人意。相比之下,SNN 利用二进制脉冲事件代替连续激活值,以事件驱动的信息处理方式显著降低了计算需求。然而,SNN 的优势在高时效性任务中变得性能低下,这也给 SNN 的硬件实现提出了新的挑战:如何在保持高能效的同时,减少计算延迟和内存占用?
为应对这些挑战,论文提出的 COMPASS 架构创新性地利用了输入脉冲的显式稀疏性和输出脉冲的隐式稀疏性。通过引入动态脉冲模式的推测机制,该架构不仅显著减少了冗余计算,还优化了硬件资源的利用效率。此外,COMPASS 还设计了一种适用于输入和输出脉冲的时间维度压缩技术,进一步降低了内存占用,实现了高效的并行执行。