内存计算IMC用于人工智能加速方面的研究进展

描述

内存计算

内存计算(In-memory Computing ,简称IMC)似乎是EnCharge AI实现高效率和低功耗的关键因素。该公司在其网站上列出了2019年、2020年和2021年的四份出版物,展示了他们在改善IMC用于人工智能加速方面的研究进展。

他们最早的出版物指出,机器学习计算严重依赖于矩阵向量乘法(MVM),虽然数字加速器相对于普通处理器提供了10-100倍的能效和速度改进,但这些收益主要是在计算方面,而不是在内存访问方面,即所谓的“内存墙”。在内存中来回移动数据在功耗和时间上都有很高的成本。

机器学习

虽然IMC可以降低功耗和延迟,但在读取内存位时,需要权衡更差的信噪比(SNR)。信噪比问题在异构系统中对IMC的扩展提出了挑战,而异构系统是最有可能在实际应用中使用IMC的场景。

2020年,该研究团队致力于解决信噪比问题,开发了一种利用charge-domin IMC的可编程异构架构和配套的软件堆栈。原型基于65纳米CMOS实现。

机器学习

2021年,该团队引入了基于电容模拟计算,以提高从二进制矢量输入到5-b矢量输入的动态范围,并在协同设计算法方面取得了进展,改善了内存映射。






审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分