​介绍一种基于RRAM的神经形态芯片

描述

 

NeuRRAM在边缘计算领域的新突破。

近日清华大学团队参与的一个国际研究团队设计并制造了一种芯片——NeuRRAM,该芯片可以直接在内存中运行计算,并且可以运行各种 AI 应用程序。

NeuRRAM 神经形态芯片使人工智能更接近于在广泛的边缘设备上运行,与云断开连接,它们可以随时随地执行复杂的认知任务,而无需依赖与中央服务器的网络连接。应用遍及世界的每一个角落和我们生活的方方面面,从智能手表到 VR 耳机、工厂中的智能传感器和用于太空探索的漫游车。 NeuRRAM 芯片的能效不仅是最先进的“内存计算”芯片的两倍,这种在内存中运行计算的创新混合芯片,它还提供与传统数字芯片一样准确的结果。传统的人工智能平台体积更大,通常受限于使用在云中运行的大型数据服务器。 NeuRRAM 芯片用途广泛,支持多种不同的神经网络模型和架构。因此,该芯片可用于许多不同的应用,包括图像识别和重建以及语音识别。  

NeuRRAM在边缘计算上的潜能

传统观点认为,内存计算的更高效率是以多功能性为代价的,但 NeuRRAM 芯片在不牺牲多功能性的情况下获得了效率。

目前,人工智能计算既耗电又昂贵。边缘设备上的大多数人工智能应用程序都涉及将数据从设备移动到云端,人工智能在云端对其进行处理和分析。然后将结果移回设备。这是因为大多数边缘设备都是电池供电的,因此只能用于计算的电量有限。

通过降低边缘 AI 推理所需的功耗,这款 NeuRRAM 芯片可以带来更强大、更智能、更易于访问的边缘设备和更智能的制造。它还可以带来更好的数据隐私,因为将数据从设备传输到云会带来更高的安全风险。

在 AI 芯片上,将数据从内存转移到计算单元是一大瓶颈。研究人员表示“这相当于每天两个小时的通勤时间为八小时。”

为了解决这个数据传输问题,研究人员使用了电阻式随机存取存储器,这是一种非易失性存储器,允许直接在存储器内而不是在单独的计算单元中进行计算。使用 RRAM 芯片进行计算不一定是新事物,但通常会导致在芯片上执行的计算的准确性降低,并且芯片架构缺乏灵活性。

NeuRRAM 的新特点是,现在极高的效率与各种 AI 应用的极大灵活性相结合,与标准数字通用计算平台相比,准确性几乎没有损失。精心设计的方法是在硬件和软件的抽象层上进行多层次“协同优化”的关键,团队需要考虑从芯片的设计到运行各种 AI 任务的配置。

NeuRRAM芯片性能

研究人员通过一种称为能量延迟积或 EDP 的方法来测量芯片的能量效率。EDP结合了每次操作消耗的能量和完成操作所需的时间。通过这一措施,与最先进的芯片相比,NeuRRAM 芯片的 EDP 低 1.6 到 2.3 倍(越低越好),计算密度高 7 到 13 倍。

研究人员在芯片上运行各种 AI 任务。它在手写数字识别任务上达到了 99% 的准确率;85.7% 的图像分类任务;84.7% 的谷歌语音命令识别任务。此外,该芯片还在图像恢复任务中实现了 70% 的图像重建误差降低。这些结果可与现有的数字芯片相媲美,这些芯片在相同的位精度下执行计算,但大大节省了能源。

研究人员指出,该论文的一个关键贡献是所有特色结果都是直接在硬件上获得的。在之前的许多内存计算芯片工作中,AI 基准测试结果通常部分通过软件模拟获得。

下一步包括改进架构和电路,并将设计扩展到更先进的技术节点。研究人员还计划解决其他应用,例如脉冲神经网络。研究人员说:“我们可以在设备层面做得更好,改进电路设计以实现附加功能并解决各种应用。”

 NeuRRAM新架构

NeuRRAM 能源效率的关键是一种创新的方法来检测内存中的输出。传统方法使用电压作为输入并测量电流作为结果。但这导致需要更复杂和更耗电的电路。在 NeuRRAM 中,该团队设计了一种神经元电路,可以感应电压并以节能的方式执行模数转换。这种电压模式感测可以在单个计算周期内激活 RRAM 阵列的所有行和所有列,从而实现更高的并行度。

在 NeuRRAM 架构中,CMOS 神经元电路与 RRAM 权重物理交错。它不同于传统的设计,其中 CMOS 电路通常位于 RRAM 权重的外围。神经元与 RRAM 阵列的连接可以配置为用作神经元的输入或输出。这允许在各种数据流方向上进行神经网络推理,而不会产生面积或功耗方面的开销。这反过来又使架构更易于重新配置。

为了确保人工智能计算的准确性可以在各种神经网络架构中保持不变,研究人员开发了一套硬件算法协同优化技术。这些技术在各种神经网络上得到了验证,包括卷积神经网络、长短期记忆和受限玻尔兹曼机。

作为神经形态 AI 芯片,NeuroRRAM 跨 48 个神经突触核心执行并行分布式处理。为了同时实现高通用性和高效率,NeuRRAM 通过将神经网络模型中的层映射到多个核上以对多个数据进行并行推理来支持数据并行。此外,NeuRRAM 通过将模型的不同层映射到不同的内核并以流水线方式执行推理来提供模型并行性。

 

 


审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分