在AI网络边缘最小化算法足迹和训练

描述

  数据处理当然不是一个新概念,算法也不是。然而,训练和运行算法的地方正在迅速发展。近年来,由于能够利用临时计算资源来执行这些数据密集型任务,机器学习 (ML) 算法的训练大体上已在云环境中进行。

  如今,人们大力推动尽可能靠近源头处理数据。这是由于物联网 (IoT) 的出现以及现在正在生成大量数据的各种技术。所有这些数据都让组织争先恐后地以具有成本效益的方式充分利用它。组织需要考虑数据从源头传输到处理位置的成本,以及存储和处理数据的成本,这通常也是在资源密集型服务器/云环境中。

  人工智能 (AI) 技术开始出现,可以在 ESP32 和基于 Cortex M4 的微控制器单元 (MCU) 等低计算功率设备上而非更大的微处理器单元 (MPU) 上进行 ML 模型训练和执行。这允许数据保持在本地,并且仅在必要时才在云中传输已处理的数据。

  通过将训练和运行 ML 模型的总体占用空间要求降至 100kb 以下,嵌入式计算中的 AI 正在进入一个新领域。例如,冒泡排序算法可能比合并排序算法更受嵌入式算法工程师的欢迎,因为前者使用了现有的内存。尽管已经存在许多算法,但正在开发新的基于 AI 的时间序列预测算法并针对嵌入式环境进行优化。通过这种新方法,AI/ML 模型在嵌入式板上进行训练。然后,这些模型用于在执行期间进行多变量统计推断。

  这些新的基于 AI 的时间序列预测算法具有三个优势:

  该解决方案与网络延迟无关,因为计算是在本地板上进行的,因此性能得到了提高。

  由于原始信号/数据仅在本地出现,因此保证了原始数据的安全/隐私。

  对于每个嵌入式板,都会训练一个新的 ML/AI 模型。这可能是这种方法的核心优势,因为在典型的工业案例中,由于环境变体、传感器的缺陷和机器变体,不可能使用单个 ML/AI 模型来覆盖一组机器的特征。使用云服务器为每个嵌入式板训练模型也不是负担得起的。

  技术突破

  算法在嵌入式计算中发挥着重要作用。通常,嵌入式设备执行的算法任务包括传感器数据清理/过滤、数据编码/解码和控制信号生成。由于有限的内存容量、CPU 能力和不同的架构,嵌入式计算环境中“最佳算法”的定义可能与 PC 和云服务器中的大不相同。

  在过去的几年里,人工智能/机器学习算法取得了突破性的进展和非常迅速的进展。许多努力都集中在将 AI/ML 模型(这些模型在其他地方训练过)应用于嵌入式上下文。换句话说,要成功部署 AI/ML 模型,需要优化内存/CPU 使用率和算法的功耗。

  人工智能正在缩小,可以运行这些高级算法。技术进步现在允许人工智能和预测性维护从基于 MPU 的设备转移到基于 MCU 的设备,占用空间小,价格显着降低。基于 MCU 的设备现在可以在网络边缘执行任务——例如预测性维护——以前只能在 MPU 上使用。这一新功能使芯片制造商、原始设备制造商 (OEM) 和智能设备制造商能够降低成本并提供差异化​​的产品。

  审核编辑:郭婷

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分