DNN低功耗AI芯片可为小型、低功耗边缘计算设备提供先进的AI处理

电子说

1.3w人已加入

描述

SoC 设计与应用技术领导厂商Socionext Inc.(以下“公司”)宣布成功发开一款集成有量化深度神经网络(DNN)技术的原型芯片,可为小型、低功耗边缘计算设备提供先进的AI处理。

受日本新能源与产业技术综合开发机构(NEDO)委托,Socionext参与了以《先进的低功耗AI-Edge LSI技术开发》为课题的项目研究,成功完成了结合量化DNN技术的芯片测试,并确认了其运行和性能。该测试芯片搭载有“量化DNN引擎”,能以高速、低功耗执行深度学习推理处理。

目前,基于通用GPU的边缘计算处理器无法满足日益增长的人工智能处理需求。以搭载有图像识别和分析功能的边缘计算设备为例,其系统功耗和发热量与通用GPU相比有明显增加,不得不通过提升成本扩容设备等方式满足AI处理需求。

量化DNN引擎

为提高AI处理性能并减少系统功耗,Socionext开发了一款采用“量化DNN技术”的专有体系架构,它减少了深度学习所需的参数和激活位。该体系架构将1-bit (binary)、2-bit (ternary) 低比特率技术、传统8-bit技术及公司独创的参数压缩技术结合,以较少的计算资源执行大量计算处理,并减少数据量。

除此以外,Socionext还开发了一种新颖的片上存储技术,可提供高效的数据传输,从而减少深度学习通常所需的大容量片上或外部存储器。

通过结合上述新技术,Socionext将AI芯片及“DNN引擎”原型化,并确认了其功能和性能。 原型化芯片通过“YOLO v3”以不到5W的低功耗及30fps的速度实现了目标检测,其效率是通用GPU的10倍。 此外,该芯片还配备了高性能、低功耗的Arm Cortex-A系列CPU,无需外部处理器即可以单芯片执行整个AI处理。

深度学习软件开发环境

除硬件开发外,Socionext还构建了深度学习软件开发环境,通过结合TensorFlow作为基本框架,允许开发人员用原始低bit位进行量化感知训练(Quantization Aware Training)和训练后量化(Post Training Quantization)。 开发新芯片时,用户可以选择最佳量化技术并将其应用于各种神经网络中执行高精度处理,例如在小型低功耗边缘设备上增设最先进的计算机视觉功能,应用于高级驾驶员辅助系统(ADAS)、监控摄像头和工厂自动化等场景。

Socionext目前正在通过对该原型芯片进行评估进一步调整电路优化其性能。公司将继续与合作伙伴一起共同开发并交付AI-Edge LSI最终产品,完成NEDO的委托项目。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分