IBM的新型模拟内存芯片能否证明AI操作的性能和能源效率呢?

描述

IBM 的新型模拟内存芯片证明了 AI 操作的性能和能源效率都是可能的。

8 月,由 30 名 IBM 研究科学家组成的团队推出了一款全新芯片,旨在大幅提高耗电深度学习推理的能源效率,同时保持运算精度。这款名为 Hermes 的模拟内存芯片将数字电路与相变内存 (PCM) 相结合,因此神经网络计算可以在内存电路内进行。

这种处理器和内存配对消除了在内存和处理单元之间无休止地洗牌大量数据的需要,就像典型的人工智能加速器芯片中发生的那样。重要的是,分析表明该芯片与计算机视觉人工智能任务的数字芯片一样擅长,而且功耗却低得多。

率先推出该芯片的 IBM 欧洲研究院团队负责人 Abu Sebastian 及其同事 Manuel Le Gallo-Bourdeau 和 Vijay Narayanan 在最近的博客中明确表示,他们现在已经展示了实现快速、低功耗模拟AI芯片的架构愿景所需的许多构建模块。正如该团队的一位 IBM 科学家所言,“我们的芯片仍处于研究阶段,但我们现在将构建尽可能多的硬件,以准确了解它的功能并了解它的性能。”

 耗电的人工智能

人工智能功耗问题的根源在于冯·诺依曼瓶颈,该瓶颈以现代计算机架构的先驱约翰·冯·诺依曼的名字命名。在这里,CPU 和内存是独立的实体,因此数据和计算必须不断地在两者之间来回穿梭。此过程会产生瓶颈,因为处理速度通常比检索数据或将数据写入内存的速度更快。

长期以来,设计人员一直在使用内存缓存、流水线和分层内存方案等解决方法来应对瓶颈。最近,芯片巨头专门开发了加速器芯片来承担新兴的人工智能处理任务。例如,英伟达已经从其 GPU 技术中取得了长足的进步。谷歌开发了张量处理单元;英特尔提供多种解决方案,包括可针对人工智能计算进行编程的 FPGA;高通则为移动设备设计了人工智能加速器芯片。

尽管如此,人工智能的高能耗需求及其不断增加的操作数量,需要一种更节能的方法,而这正是模拟内存计算似乎将发挥关键作用的地方。

模拟内存芯片可以通过直接在内存内执行计算来规避冯·诺依曼瓶颈。模拟计算方案只需要几个电阻或电容器,因此可以将它们重新定位到存储器中,消除了存储器和处理器之间的分离,从而提高了能源效率,远远超过了数字芯片。

IBM 在其最新的模拟人工智能芯片中采用了这种方法。该芯片采用 14 nm CMOS 设计和制造,包含 64 个计算核心,每个核心都有自己的 PCM 阵列以及用于额外神经网络操作(例如激活和累加)的轻型数字处理器。片上通信网络将核心连接在一起,芯片中心的进一步数字处理单元可以处理更苛刻的神经网络计算。

尽管使用 PCM 技术使其与众不同,但 IBM 并不是唯一一家致力于模拟 AI 芯片的公司。例如,英特尔实验室的研究人员一直在研究静态随机存取存储器和其他技术;美国初创公司Mythic专注于多级闪存;来自斯坦福大学、圣母大学、加州大学圣地亚哥分校和清华大学的研究人员开发了一种神经形态芯片,称为 NeuRRAM,它使用电阻式随机存取存储器。

PCM 是 IBM 的合理选择,因为该公司至少花了十年时间开发这些用于存储应用的材料,包括多级 PCM 芯片。PCM 本身是一种非易失性随机存取存储器,加热时会在低导电非晶相和高导电晶相之间切换。基于这些材料的设备可以利用相变,将电导的变化编码为突触权重,然后用于计算操作。

正如 IBM 的最新结果所示,这种连续的值(而不仅仅是数字设备中的 1 或 0)非常适合深度神经网络操作。

当与基于类似技术的其他芯片(包括 NeuRRAM 以及 Mythic 和 TSMC 开发的芯片)进行基准测试时,IBM 的技术可以执行矩阵向量乘法(这是人工智能运算的基础),速度至少提高 15 倍,并且能效相当。值得注意的是,在使用人工智能训练彩色图像数据库 CIFAR-10 进行测试时,该芯片还被证明在图像识别方面比其他芯片更准确,挑战了模拟内存计算虽然节能但容易出现计算错误的观念。

“相变存储器的优势在于它足够稳定,可以进行一些相对准确的计算,”IBM 科学家说。“我们开发了精确编程的技术,并且还详细描述了错误的特征。我们的精度对于神经网络来说已经足够了。”

英特尔实验室研究科学家 Hechen Wang 也多年来一直致力于模拟内存计算,他同意该方法可以实现卓越的能源效率。“研究人员大约五年前开始研究模拟内存,现在 IBM、imec、GlobalFoundries、台积电、三星和其他公司和学术团体开始研究这项技术,”他说。“如果我们想要进行非常高效的AI计算,我们需要将处理单元放入内存阵列,甚至内存单元中。”

Hechen Wang说,英特尔实验室正在寻求内存计算的多种途径,并探索一系列内存技术。“对于哪种记忆才是正确的方向,我们还没有得出结论。”

尽管如此, Hechen Wang相信 IBM 和其他公司的最新模拟内存开发正在对这个“热门”领域产生积极影响。“IBM 的研究成果已经发表在 Nature 论文上,说实话,我从来没想过会发生这种事,”他说。“很多人阅读了这些出版物,我希望这些结果能够开阔他们的视野,并吸引更多人对该领域的关注。”

 下一步

自从在《自然电子》杂志上发表研究结果以来,IBM 欧洲研究人员明确表示,他们的工作证明模拟 AI 可以提供与传统数字加速器相媲美的必要计算精度,而且能效更高。随着基于人工智能的技术的兴起,节能且准确的推理硬件变得至关重要,研究人员的目标是创建能够执行端到端推理操作的模拟内存芯片。

与此同时,IBM 欧洲研究院表示,它打算利用 PCM 设备可达到的高突触密度,构建更大的芯片,能够比竞争对手的数字加速器运行整个网络操作。

IBM 科学家表示:“一旦我们真正展示了这项技术的前景,并且更多的人想要投资(该领域),那么我们就可以组建由数百名研究人员组成的团队来从事这项工作,这样我们就可以将芯片投入生产模式。”







审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分