Socionext推出神经网络加速器,加速AI时代

描述

先进视觉影像SoC应用技术领导厂商Socionext Inc.(以下“索喜科技”或“公司”)宣布推出神经网络加速器 (Neural Network Accelerator engine,缩写NNA),用于优化人工智能处理中的边缘计算设备。它具备高速且低功耗的特性,是专用于深度学习中推理处理的加速器。相较以往的处理器,NNA在图像识别等处理时性能提升约100倍。公司预计于2018年第三季度开始,配合FPGA软件开发工具提供产品销售。此外,搭载有NNA的SoC产品开发也正在规划当中。

Socionext

随着消费电子、汽车电子、工业控制等越来越多的应用引入人工智能(AI),人工智能面临着前所未有的快速发展,深度学习、神经网络等技术迎来了发展高潮。神经网络越大,需要的计算量就越大,传统的VPU虽然也能完成人工智能运算,但因为高功耗和高延迟已经略显疲惫。在VPU上加载人工智能计算能力则可以规避这些问题,而且具有更高的可靠性。

Socionext目前提供图像处理SoC“SC1810”,这款芯片内置有技术标准化组织Khronos Group制定的API规范-OpenVX,内置有视觉处理器(VPU,Vision Processor Unit)。此次新推出的NNA加速器能VPU性能,可在汽车、数字标牌等多种应用中通过深度学习及传统的影像识别执行多种电脑视觉处理,以便在较低功耗下提供更高的性能。

NNA采用量化技术整合了公司的专有构架,减少了深度学习所需的参数和激活值。通过量化技术能以较少的资源执行大量计算任务,大幅减少数据量,并显著降低系统存储器带宽。此外,新开发的片上存储器电路设计提高了深度学习所需的计算资源效率,能在非常小的封装中实现最佳性能。搭载有NNA的VPU结合了最新的技术,能在图像识别处理时比传统VPU快100倍。

Socionext预计于2018年第三季度开始提供NNA FPGA软件开发包。改软件开发包可支持TensorFlow学习环境,并提供用于量化技术的专用库和从学习模型到推论处理用的数据转换工具。通过利用NNA优化后的学习环境,用户无需模型压缩或学习调谐(learning tuning)知识也能有效建立起他们自己的模型。今后Socionext还将计划通过支持各种深度学习框架来支持应用广泛的开发环境,让用户能简单建立深度学习的应用程序。

与此同时,Socionext也计划将载有NNA的SoC芯片投入市场。目标应用包括车载系统中的影像拍摄,以及基于行人、自行车等高精度物体识别的辅助驾驶以及自动泊车。另一个重要的应用便是显示系统,例如电视、数字标牌,NNA可在超分辨率处理时增强图像识别,提高4K/8K屏幕高清晰度成像。Socionext将不断创新并开发出高效、高性能产品,以适应各种边缘计算环境中广泛的AI应用。

关于Socionext Inc.

Socionext Inc.是一家新成立的创新型企业,为全球客户设计、开发和提供片上系统(System-on-chip)产品。公司专注于成像、网络和电脑计算等其他能够推动当今尖端应用发展的技术。Socionext集世界一流的专业知识、经验和丰富的IP产品组合,致力于提供高效益的解决方案与更佳的客户体验。Socionext 成立于2015年,总部设在日本横滨,在日本、亚洲、美国和欧洲设有办事处,领导其产品开发和销售。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分