电子说
首先,对 AI 的几点看法:用词不当!人工智能既不是人工的,也不是智能的。如果没有大量的人类训练,人工智能就无法识别事物。人工智能在物体或场景的识别、理解和分类方面表现出与人类完全不同的逻辑。该标签暗示人工智能类似于人类智能。
不是这样。
人工智能通常缺乏常识,很容易被愚弄或破坏,并且可能以意想不到和不可预测的方式失败。换句话说——谨慎行事。
本专栏探讨人工智能技术如何影响汽车行业。我们将考虑这些问题:
人工智能如何解决问题?
人工智能在汽车中的优点和缺点是什么?
在汽车中使用人工智能有哪些独特的挑战?
哪些汽车电子领域正在使用人工智能?
未来哪些汽车电子领域将依赖人工智能技术?
AI 开发分为三个阶段:构建 AI 模型,使用相关数据训练 AI 模型,最后使用训练好的模型解决问题,即推理阶段。
大多数 AI 模型都基于多个版本的神经网络和学习网络。示例包括卷积神经网络、生成对抗网络、深度强化学习、联邦学习、迁移学习等。每个都有不同的优点和缺点。一切都在迅速发展。
下表总结了人工智能技术的优缺点以及安全考虑和拟议法规。
点击查看完整大小的图片
人工智能优势
人工智能主要用于解决复杂的问题。由于汽车行业存在许多难题,人工智能在推进汽车技术方面发挥着越来越重要的作用。部署自动驾驶汽车的承诺主要取决于新的人工智能技术。似乎几乎达成共识,神经网络的进步是实现未来 AV 部署成功的主要方法。
好消息是人工智能,尤其是神经网络技术还处于研发阶段。这意味着未来的进步将领先于预期的突破性创新。随着全球范围内持续广泛的人工智能投资,人工智能和神经网络将解决许多更复杂的问题,包括汽车行业的挑战,这是一个不错的选择。
人工智能的缺点
开发和部署人工智能技术的挑战之一是对神经网络的充分训练。一般来说,问题越复杂,神经网络模型就必须越复杂。这意味着大型模型。培训需要大量资源和专业知识来设计和测试依赖大型数据集的 AI 模型,以验证模型是否像宣传的那样工作。
AI 模型需要大量训练,这意味着需要获取大型数据库。更大的训练数据集变得可用,但训练仍然是一项耗时且昂贵的任务。大多数训练数据也必须由人类标记,以使 AI 模型能够学习并变得熟练。人们越来越担心偏见正在蔓延到训练数据中。
然后是黑盒问题:仍然很难确定 AI 模型如何做出决策。对于自治系统来说,这种模糊性仍然是一个大问题。需要更好的解决方案。
另一个问题涉及模型对微小数据变化的敏感性。该漏洞引发了安全问题,包括入侵自主系统的可能性以及由此产生的对 AV 安全的威胁。
缺乏人工智能专业知识是汽车和其他行业的另一个重大缺陷,这种技能差距不太可能很快得到弥补。
解决问题的推理阶段也有缺点。大型模型,尤其是 AV 模型,需要巨大的计算资源来处理传感器数据并支持复杂的软件。这些资源还需要电力,这在汽车应用中总是有限的。
新兴技术将提高能力并降低推理成本,包括新兴的人工智能芯片技术、激光雷达价格的下降和传感器性能的提高。
推理的最大缺点是黑盒问题或 AI 可解释性。人工智能系统仍然无法解释它们是如何做出决策的,从而产生了许多人工智能信任问题。对于汽车应用来说,这是行不通的。(我将在以后的专栏中探讨有关 AI 可解释性的问题。)
人工智能安全
与其他消费领域相比,汽车 AI 需要更高的安全性。因此,必须更加重视人工智能安全和研发。为此,乔治城大学安全与新兴技术中心 (CSET) 发布了一份开创性报告,研究了人工智能的意外后果和潜在影响。
CSET 报告确定了三种基本类型的 AI 故障——稳健性、规范和保证故障。鲁棒性故障意味着人工智能系统接收到异常或意外的输入,导致它们发生故障。在规范失败中,人工智能系统试图实现与设计者的意图略有不同的东西,从而导致意想不到的行为或副作用。保证失败意味着人工智能系统在运行过程中无法得到充分的监控或控制
7 月份发布的报告包含了 AI 意外崩溃的示例(作者更喜欢“意外”一词),并建议采取措施降低风险,同时使 AI 工具更值得信赖。
可解释的 AI,即 XAI,是一种减轻黑盒效应的方法,可以更好地了解提高模型准确性所需的数据。由国防高级研究计划局赞助的 XAI 研究旨在开发机器学习技术,以产生更多可解释的模型,同时保持高水平的学习性能和准确性。XAI 还将使人类用户能够理解、信任和管理 AI 模型。XAI 还可以表征其自身的能力并提供对其未来行为的洞察。
人工智能监管
人工智能和通用数据保护条例密切相关。GDPR 影响欧洲和其他地区的人工智能发展。该法规明确涵盖了自动化的个人决策和分析。该规则保护消费者免受两者的法律后果。在这种情况下,自动化的个人决策包括人工智能平台在没有任何人工干预的情况下做出的决策。剖析是指自动处理个人数据以评估个人。
对于汽车应用,这主要影响内容交付系统和用户界面。
欧盟正在准备一项类似于 GDPR 的 AI 法规,这一新规则的影响可能与 GDPR 一样广泛。代表监管人工智能的法律框架的提案草案于 4 月发布。
欧盟提案旨在确定高风险人工智能技术及其针对可能危及公民的交通等关键基础设施的应用。这意味着自动驾驶汽车将成为人工智能监管的目标。
根据欧盟提议的人工智能立法,罚款可能高达 3000 万欧元,或公司全球收入的 6%,以较高者为准。GDPR 规定的最高罚款为 2000 万欧元,即全球收入的 4%。
汽车人工智能
下表总结了与汽车电子集成的人工智能技术。不包括用于汽车制造、供应链管理、质量控制、营销和人工智能做出重大贡献的类似功能的人工智能。
点击查看完整大小的图片
神经网络产生的决策必须是可以理解的。如果不是这样,就很难理解它们是如何工作的并纠正错误或偏见。
神经网络的决策也必须是稳定的——也就是说,尽管视觉数据存在微小差异,但仍保持不变。这对于 AV 尤其重要。停车标志上的小条黑白胶带可以使它们对基于人工智能的视觉系统不可见。这是不可接受的神经网络性能的一个例子。
AV 应用程序需要更好的技术来了解以前的软件驾驶员培训没有经历过的边缘案例或新的驾驶事件。这仍然是大规模部署 AV 系统的关键限制因素。
当前的人工智能使用
语音识别和用户界面一直是汽车领域最成功的基于人工智能的应用。这些应用程序利用智能手机和消费电子产品中使用的人工智能技术部署在信息娱乐和人机界面中。Alexa、CarPlay、Android Auto 和类似产品已在大多数新车型和车型更新中引入。
远程诊断是领先的远程信息处理应用程序。例如,添加人工智能技术可以帮助预测未来的设备故障。
基于人工智能的视觉系统用于配备 ADAS 的汽车的驾驶员监控系统。随着人工智能技术的改进,DMS 有望实现快速增长。
许多 ADAS 功能也使用 AI 技术,包括自适应巡航控制到多个版本的停车辅助。L1 和 L2 ADAS 车辆将在新车型中使用越来越多的 AI 技术。
新兴的人工智能使用
多家原始设备制造商正在涌现有限的驾驶飞行员。它们通常称为 L2+,但该术语不包含在当前标准中。称它们为自动驾驶仪是一个错误,因为它使消费者感到困惑,并暗示了比现有更多的能力。他们已经造成了崩溃。
L3 车辆已经面世多年,但由于监管限制,部署受到限制。允许 L3 AV 的法规正在出现,L3 车辆使用大量 AI 技术。
OTA 软件和网络安全功能都通过嵌入式软件客户端以及基于云的服务和分析软件添加 AI 技术。
一个新兴的 AI 应用是针对多个AV 用例的自动驾驶汽车开发和测试。大约 5,000 辆自动驾驶汽车处于测试或试点模式,主要在中国和美国。它们包括货物自动驾驶汽车、自动驾驶卡车、机器人出租车和固定路线自动驾驶汽车。
未来的人工智能使用
AV 用例是 AI 技术最有价值和最困难的应用。我们的目标是开发出比最好的人类驱动程序更好的软件驱动程序,并且没有人类行为的任何缺点。
基于人工智能的技术改进的软件开发已经成熟。通过创新的人工智能技术,识别和修复软件错误可能会在未来十年发生。
审核编辑 黄昊宇
全部0条评论
快来发表一下你的评论吧 !