电子说
边缘AI可以通过GPU、FPGA、ASIC等芯片来实现,而一些厂商也选择将AI集成到主控制器当中,比如MCU或无线MCU嵌入AI的产品越来越多。近日,电子发烧友网采访Silicon Labs高级产品经理Tamas Daranyi,关于边缘AI以及Silicon Labs的产品举措,他进行了分享。
边缘机器学习(ML)计算支持广泛的、智能化的工业和家庭应用,包括用于异常检测的传感器数据处理、预测性维护、用于改进玻璃破碎检测的音频模式识别、简单命令词识别以及视觉应用,如使用低分辨率摄像头进行在场检测或人数统计。总之,边缘AI的需求已经非常明确并且广泛。
但如何选择边缘AI呢?Tamas Daranyi认为,那些考虑在边缘设备上部署人工智能或机器学习的人员,他们都面临性能和功耗使用方面的巨大的困境,这些可能会超过其带来的好处,最终得不偿失。
Silicon Labs高级产品经理Tamas Daranyi
他说,针对FFT、矩阵运算和卷积等特定类型的计算,有特定用途的计算硬件架构,因此很多公司都在主核心旁边的芯片上使用特定的计算子系统,诸如DSP、NPU等。这样做的主要好处是可以更快、更高效地处理操作,减轻通用CPU的负担。芯片设计中的挑战可能会有所不同,但在性能与门数之间总是存在权衡,这会增加价格。
同时,像服务器集群支撑起来的云计算中的人工智能/机器学习功能似乎拥有“无限制”的资源与带宽。
所以,考虑到性能与成本,以及边缘有限的资源等因素,Tamas Daranyi认为边缘AI需要将许多关键的部分集成在一颗芯片以及基于该芯片的解决方案之中。在他看来,边缘人工智能解决方案需要具备业界所需功能的最佳组合,包括物联网边缘应用相关的对多样化无线多协议的支持、电池寿命、机器学习和安全性等。
不仅所有这些功能需要领先业界,而更困难的是去确保最终的无线SoC产品在领先业界的同时,还能够保持成本优势、高能效并不会过时。
Silicon Labs新推出的BG24和MG24系列产品旨在无线SoC上构建单芯片边缘AI解决方案,它是一种集成化的解决方案,需要在芯片架构上进行创新,以实现更高的性能和更低的功耗。
Tamas Daranyi表示,架构性创新是单芯片BG24和MG24 SoC的关键部分。它们结合了运行速率为78 MHz的ARM Cortex-M33处理器、高性能2.4 GHz射频、行业领先的20位ADC、优化的闪存(高达1536 kB)和RAM(高达256 kB)的组合,以及AI/ML硬件加速器(用于在减轻ARM Cortex-M33工作量时处理机器学习算法),因此应用程序可以有更多的时钟周期来完成其他工作。这些SoC支持广泛的2.4 GHz无线物联网协议,具有市场上最高的安全性和最佳的射频性能/能效比。
内部测试显示,全新的、具有AI/ML功能的BG24和MG24 2.4 GHz无线SoC,实现了性能提升高达4倍,以及能效提升高达6倍。由于机器学习计算是在本地设备上而不是在云端进行的,因此消除了网络延迟,加快了决策和行动。
BG24和MG24支持Matter、Zigbee、OpenThread、低功耗蓝牙、蓝牙网状网络、专有和多协议操作,并提供PSA 3级Secure Vault安全保护,超低功耗以及Silicon Labs产品组合中最大的内存和闪存容量,可广泛应用于各种智能家居、医疗和工业领域。
毫无疑问,一个设计良好的硬件和适当的软件支持可以实现高效的AI SoC。显然,专用的解决方案性能将表现得最好,但通用的AIoT器件也具有强大的功能且极具竞争力。“我并不认为SoC功能越强大越好,而是应该以合理的价格为特定的问题提供最智能、最有效的解决方案。”Tamas Daranyi说道。
Tamas Daranyi表示,作为一家全球领先的拥有安全和智能的无线技术、先进外围设备和先进计算内核的无线SoC供应商,Silicon Labs已经为边缘人工智能/机器学习制定了战略和路线图。该战略的一个关键部分是解决在无线SoC上尽可能快速和高效地运行机器学习模型的挑战。更重要的是,Silicon Labs已经为此推出了两款全新的2.4 GHz无线SoC系列产品,它们拥有片上AI/ML加速器。他们还为市场推出了一个全新的软件工具包,旨在让开发人员通过一些最常用的工具套件(如TensorFlow),来快速构建和部署人工智能和机器学习算法。我们正在探索集成机器学习和无线连接功能的单芯片解决方案及其最有意义的、特别关注低功耗的应用,这将成为物联网行业的一场彻底变革。
全部0条评论
快来发表一下你的评论吧 !