国内外MCU厂商在边缘AI市场寻找机会!MCU如何运行AI算法?

描述

电子发烧友网报道(文/李弯弯)MCU即微控制单元,是把CPU的频率与规格做适当缩减,并将内存、USB等周边接口,甚至LCD驱动电路都整合在单一芯片上,形成芯片级的计算机。随着MCU算力进一步提升,高频MCU的主频已经提升到GHz级别,可以满足边缘端低算力人工智能需求。将人工智能集成在MCU上,只用一颗芯片实现端侧部署,正在成为新潮流。
 
MCU如何运行AI算法
 
这种集成了AI的MCU组成结构大概包括几个部分:中央处理器,负责读取、解码和执行指令,进行算术、逻辑和数据传输操作;AI处理单元:它负责执行AI算法和机器学习任务,AI处理单元通常包括神经网络处理器、加速器和其他专用硬件,用于高效地执行深度学习、卷积神经网络等计算密集型任务。
 
存储单元:包括程序存储器和数据存储器。程序存储器用于存储AI算法和程序代码,而数据存储器则用于存储临时数据和结果。输入/输出(I/O)端口:用于与外部传感器、执行器和其他设备进行通信,这些端口可以是数字、模拟或串行端口。
 
其他组件:如定时器/计数器、串行通信接口(如SPI、UART等)、内存接口等,这些组件支持AI MCU与外部设备和系统进行通信和控制。此外,结构和组成可能会因不同的应用和需求而有所差异,一些高级的AI MCU可能还包含其他高级功能,如浮点运算单元(FPU)、硬件乘法器、数字信号处理器(DSP)等。
 
那么,MCU是如何运行AI算法的呢?从步骤上来看,首先需要模型转换,即需要将训练好的AI模型转换为MCU可以理解的格式,这通常涉及到使用特定的工具和框架,如TensorFlow Lite或Caffe 2,将模型转换为低功耗、可移植的格式。
 
其次是模型优化,在模型转换后,为了提高在MCU上的运行效率,还需要对模型进行优化。这包括压缩模型大小、降低计算复杂度、减少内存占用等。接着是模型部署,优化后的AI模型可以部署到MCU上,这通常涉及到将模型下载到MCU的存储器中,并使用MCU的处理器进行推理。
 
然后是数据预处理,在模型推理之前,需要对输入数据进行预处理,这包括数据清洗、归一化、特征提取等步骤,以确保输入数据的质量和有效性。最后便是推理执行,即MCU根据预处理后的输入数据执行推理任务,推理结果可以用于控制MCU所连接的设备或系统,如智能家居设备、工业控制系统等。
 
MCU运行AI有它的优缺点,优点包括:1、MCU通常具有较低的功耗,适用于电池供电或功耗敏感的应用场景;2、MCU可以实时处理和响应数据,适用于需要快速响应的应用;3、MCU可以根据具体应用需求进行定制,灵活性较高;4、MCU通常成本较低,适合大规模生产;5、MCU具有较高的可靠性和稳定性,适用于对安全性和可靠性要求较高的应用。
 
缺点则有:1、MCU的存储器、处理器速度等资源有限,可能无法处理大规模的AI算法和数据;2、MCU的计算能力相对较弱,可能无法与高性能的GPU和服务器相媲美;3、MCU在数据传输方面可能存在限制,例如有限的I/O端口和通信接口;4、由于MCU资源限制和计算能力有限,开发人员可能需要针对MCU进行特定的优化和裁剪工作,开发难度较大;5、由于MCU通常暴露在外部环境中,可能存在安全风险,需要进行安全保护和认证。
 
国内外厂商在边缘AI市场寻找机会
 
目前国内外不少厂商都在探索通过MCU来实现AI在边缘端的部署,欧美厂商包括ADI、ST、瑞萨电子、恩智浦、英飞凌等,国内厂商中颖电子、国民技术、纳思达、兆易创新等。
 
欧美厂商在这方面布局较早,如ADI,该公司从2020年开始,在传统MCU的基础上开拓了边缘AI MCU产品线,能够帮助电池供电设备更轻松地实现人工智能及物联网应用。
 
ADI的边缘AI解决方案MAX7800X系列,由两个微控制器内核(ARM Cortex M4F和RISC-V)与一个卷积神经网络(CNN)加速器构成,该架构针对边缘进行了高度优化,数据的加载和启动由微控制器内核负责,而AI推理由卷积神经网络加速器专门负责。基于两个硬件的分工合作,MAX7800X系列既不需联网,也支持电池供电,大大满足了边缘AI的要求。
 
如ST,该公司认为对于未来的MCU而言,最为重要的应用趋势是来自AI在边缘端的部署。于是它在2017年开始探索AI和MCU的结合。2023年ST发布的一款集成NPU的MCU——STM32N6,是布局边缘AI的一个重要的产品方向。STM32N6采用了Arm Cortex-M55内核,内部集成了ISP和NPU,可以提供卓越的机器视觉处理能力和AI算法部署。
 
同时,ST认为,对于将MCU和AI的结合,软件端的价值更大,于是他们开发了Cube.MX,它能够打通AI算法和MCU应用之间的屏障,让实际的AI边缘端应用更加丰富。通过Cube.AI,开发者可以根据自己的需求来进行模型的搭建,将标准AI工具创建的深度神经网络模型,优化到适合MCU资源级别的C代码,使开发者的边缘AI算法可以最终得以执行和落地。
 
在国内,多家厂商会有相关的研究计划,国民技术此前在某平台上透露,Cortex-M7内核MCU可支持高算力的机器学习方面的AI应用,未来将根据市场需求、研发计划和技术情况合理布局。纳思达称,目前拥有面向深度学习应用的专用计算自研平台,针对MCU芯片,负责轻量级深度学习模型推理加速。
 
中颖电子去年9月在接受调研时表示,公司现在所有产品在细分领域都在做进口替代。公司不会投入在AI的核心算力部件,但对AI边缘计算的MCU会投入研发。恒烁股份称,公司正在开展基于MCU的AI应用部署,推动超轻量AI算法模型在MCU芯片上运行,在离线终端设备上实现低功耗、低成本、实时的AI推理解决方案,尽快实现批量出货。
 
写在最后
 
未来,边缘/终端设备的智能化渗透率将会不断提升,而MCU作为各种电子产品重要的部件,在其中集成AI将会是非常适合的方式。从目前的情况来看,欧美不少厂商已经早早布局,如ADI、ST、瑞萨等,中国台湾厂商也在积极寻找机会,中国大陆的一些厂商也透露出了研究计划。不过,虽然MCU运行AI有它的优势,同时它也面临一些缺点和挑战,MCU厂商想要入局也并不是一件容易的事。
 
 
 
 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐
  • mcu

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分