通过人工智能和机器学习优化用户体验

描述

  在短短十年内,人工智能 (AI) 已经从一种炒作变成了我们在线生活的基本技术推动者。谷歌搜索、社交媒体提要和在线广告等服务都使用人工智能算法在云上处理大量数据,以生成针对每个用户的个性化输出。再深入一点,你会发现人工智能的学习能力在整个网络世界中被利用来优化用户体验、业务流程和技术解决方案。

  在同一时期,人工智能在连接设备中发现了无数应用。要查看 AI 的运行情况,只需看看您的智能手机即可,您可以使用面部识别来解锁,在使用您喜欢的唤醒词激活 Siri 或 Google 助理后与之交谈,或者使用它来拍摄照片,让使用标准相机拍摄的照片显得苍白比较。如果没有人工智能,这些常规行动都不可能实现。但是,这些用例不是在云上运行 AI 算法,而是直接在设备上运行它们,即所谓的网络边缘。

  人工智能和机器学习(一种相关技术)的日益普及和成熟导致了它们的民主化。如今,越来越多的产品正在结合边缘 AI 来改善其服务并启用新的用例。虽然它们通常建立在智能手机中已成为标准的功能(例如语音和面部识别)的基础上,但这些仅概述了可以使用边缘 AI 改进的用例的一个子集。

  边缘人工智能的好处

  要了解边缘 AI 的好处,了解它的工作原理很有用。与标准人工智能一样,Edge AI 依赖于受大脑神经架构启发的数学模型。这些神经网络的特殊性在于它们可以被训练来完成各种任务。例如,让他们看到来自网上大量图片的数百万张交通信号灯图像,他们将成为识别它们的大师。

  训练 AI 算法是一个需要大量数据的计算密集型过程。然而,结果是一个紧凑、功能强大的 AI 模型,可以轻松部署在任意数量的终端设备上。只要它们有足够的计算资源来运行它们,算法就可以在不需要任何云连接的情况下运行。

  这种对云的独立性为边缘 AI 带来了几个重要的好处:

  连接需求:由于无需将语音或图像数据上传到云端,本地运行 AI 算法的设备可以节省带宽以满足其他需求,或者转而依赖低带宽无线通信技术。话虽如此,当新的改进模型可用时,云连接可能有利于通过空中更新 AI 模型。

  延迟:直接在设备上运行 AI 算法可以节省将感知数据上传到云端并将输出传输回终端设备所需的时间。这大大减少了延迟,带来流畅、无延迟的用户体验。

  隐私:如果即使是最复杂的联网设备也存在数据被黑客拦截的风险,那么很明显,中低价位的消费设备尤其容易受到此类威胁。由于边缘 AI 设备处理设备上的所有数据(语音、图像或其他),因此数据永远不必离开设备,从而防止其被拦截。

  边缘人工智能用例

  有多种边缘 AI 用例正在获得关注。

  人脸识别正被用于智能手机以外的用户身份验证。虽然商业访问控制解决方案使用面部识别来确保只有授权员工才能进入受限位置,但安全摄像头可以在检测到陌生人进入建筑物时使用它来发出警报。同样,面部识别可用于识别健身房、医疗诊所或商业场所的回头客。

  与此同时,语音用户界面正变得越来越普遍。毕竟,有什么比能够与您的智能设备交谈(并被理解)更方便的呢?虽然可以对用户进行身份验证并处理传入的语音命令的语音识别技术在智能手机和智能个人助理中得到了完善,但现在它正在汽车和智能家居设备中找到应用,并为无法使用的人增加可访问性因残疾而打字。

  在工业领域,边缘人工智能可用于标记引起的异常行为,例如,当电机出现早期故障迹象或滚动轴承开始磨损时。在这些异常检测用例中,AI 模型使用涵盖正常行为的数据集进行训练。通过检测与标准的任何偏差,工厂操作员可以收到警报,通知他们机器可能出现退化,从而使他们能够在造成代价高昂的停机之前解决这些问题。

  使用 u-blox 实施边缘 AI

  在无线智能设备中实施边缘 AI 用例变得更加容易,而且功能更加强大。在 u-blox,我们推出的NORA-W10 Wi-Fi 4 和蓝牙低功耗 5.0 模块,旨在启用和加速边缘 AI 应用程序。除了为高级客户应用配备强大的开放式 CPU 外,该模块还为语音和面部识别提供 AI 支持。用于边缘神经网络推理(8 位和 16 位模型)的 AI 矢量指令可提供额外的性能提升,大大加快 AI 算法的速度,减少感知延迟并节省电力。

  审核编辑:郭婷

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分