AGM推出基于ASIC的MCU算力加速芯片,将是车载计算平台未来发展趋势

电子说

1.3w人已加入

描述

近日,在AI芯片的“寒地深”领域增加了一位新玩家,AGM(www.alta-gate.com)将推出一款基于ASIC的MCU算力加速芯片,主打高性价比的嵌入式MCU市场,用于物联网边缘AI推理的算力加速。

近几年,深度神经网络(DNN)在图像识别、自然语言处理等方向上取得了前所未有的成功,并推动相关行业的快速发展。但是,这些应用中使用的深度神经网络的参数量巨大,模型训练(training)与推断(inference)都需要大量的计算,传统计算芯片的算力无法满足DNN计算需求。具有高算力的AI芯片能够满足AI行业计算需求并得到了快速发展。

现阶段,由于终端设备的计算力普遍有限,模型训练与推断大都在云端服务器上完成。在云端模型训练中,NVIDIA的GPU占主导地位,多GPU并行架构是云端训练常用的基础架构方案。在云端识别中,基于功耗与运算速度的考量,单独基于GPU的方式并非最优方案,利用CPU、GPU、FPGA、ASIC各自的优势,采用异构计算(CPU+GPU+FPGA/ASIC)是目前主流方案。

在计算机视觉、语音识别等应用中,终端采集数据(特别是图像数据),然后上传到云端处理的云计算对网络带宽与数据中心存储都带来越来越大的挑战。另外,无人驾驶等应用对实时性与安全性要求极高。网络的时延与稳定性所带来的安全隐患是无人驾驶等应用所无法忍受的。在终端采集数据,并完成数据处理,提供智能终端推断的边缘计算(Edge computing),因其能够满足实时性、安全性的需求,且能节约带宽与存储,得到越来越多的关注。业界判断inference将越来越多的在终端设备上完成,即,智能将会下沉到终端设备,智能边缘计算将会崛起。

实时性是选择在终端完成推断最主要的原因之一。但是,由于深度神经网络参数量巨大,推断过程需要完成大量的计算,其对终端硬件的计算力提出了很高的要求。另外,电池供电的终端设备对功耗也有极高的要求,且大多数的终端产品价格敏感。即,执行DNN推断的终端芯片对算力、功耗、价格都有严格的限制。

AGM研发的嵌入式AI算力芯片,集成了多项在其FPGA+MCU现有产品中, 已使用并且大批量产验证的技术:

超低成本和低功耗可重构逻辑定制ASIC

计算单元ASIC定制技术  – ASIC矩阵计算

嵌入式内存存读ASIC技术–低延迟低功耗

融合以mcu 为主导的芯片架构和软件生态

AGM此次推出的MCU算力芯片,成本类似ASIC,但是在架构上属于可重构ASIC,适用于AI高算力需求和不断演进的算法升级,例如CNN、RNN和矩阵运算。这款芯片满足了低功耗,尤其是低延迟的内存存取的需求。

这款物联网边缘AI推理的算力芯片,主打超低价和高性价比,可以应用在以下应用场景的终端中:

边缘摄像头图像AI分析;

智能音箱的声音AI分析;

行车记录的图像AI分析;

工控的数据AI分析;

传感器的数据AI分析

AI 高算力需求和不断演进的算法CNN,RNN,和矩阵运算

例如在安防领域,相比于传统视频监控,AI+视频监控,最主要的变化是把被动监控变为主动分析与预警,因而,解决了需要人工处理海量监控数据的问题。安防、无人机等终端设备对算力及成本有很高的要求。随着图像识别与硬件技术的发展,在终端完成智能安防的条件日益成熟。

而在汽车行业,高速驾驶情况下,实时性是保证安全性的首要前提,云端计算无法保证实时性。车载终端计算平台是自动驾驶计算发展的未来。另外,随着电动化的发展趋势,对于汽车行业,低功耗变的越来越重要。天然能够满足实时性与低功耗的ASIC芯片将是车载计算平台未来发展趋势。

2016年AI芯片全球市场规模为23.88亿美元,有机构预计到2020年AI芯片全球市场规模将达到146.16亿美元(终端AI芯片的市场规模),发展空间巨大。在未来的“雾计算”终端产品中,相信未来低价低功耗的MCU算力加速SoC芯片将成为AI终端产品的主导,AGM应可占有一席之地。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分