NHTSA宣布特斯拉自愿召回FSD Beta软件,而且正在对涉及特斯拉Autopilot自动辅助驾驶系统的一系列交通事故展开调查。
特斯拉FSD Beta召回事件大大削弱了自动驾驶的可信度。
2023年2月16日,美国国家公路交通安全管理局(NHTSA)宣布特斯拉已同意自愿召回配备FSD Beta版的362,758辆汽车,其中包括Model S、Model X、Model 3和Model Y等特斯拉全部车型。NHTSA指出,FSD未能在多种常见的驾驶情景下安全操作特斯拉汽车——多位业内人士表示,此次召回证明,特斯拉对FSD性能的宣传吹捧,再也不能凌驾于监管机构之上。
关于特斯拉自动驾驶功能的紧张情绪一直在加剧。2021年夏天,NHTSA开始调查多起特斯拉汽车与路边紧急停放车辆相撞的交通事故,其中特斯拉所有涉事车型都装有Autopilot自动驾驶辅助系统(车系标配)。NHTSA随后发布的调查报告表明,当年共发生了273起与Autopilot系统相关的事故。而FSD及其“城市道路自动转向(Autosteer)”功能被认为是比Autopilot更先进的系统,FSD高达15000美元的价格似乎也佐证了这一观点。
在特斯拉与NHTSA达成召回协议后,特斯拉专门新建了一个网页,宣布FSD为SAE L2级自动驾驶。根据该页面内容所示,“FSD Beta版具有SAE L2级驾驶辅助功能,可在某些操作限制情况下为驾驶员提供转向、制动或加速支持。与其他SAE L2级驾驶辅助功能一样,每当启动FSD Beta版功能时,驾驶员应当负责操控汽车,并且必须持续监督该功能,并在需要时进行干预(如转向、制动或加速),以确保车辆安全运行。”
尽管如此,许多购买了FSD Beta版的消费者似乎认为,该系统具备更高的自动驾驶等级。大量肆意滥用该系统的网络视频说明:至少有一点是肯定的,特斯拉在向客户和有意向的消费者介绍FSD功能时,信息是不透明的。
美国汽车协会(AAA)于2023年3月发布的一项针对1000名成年被访者的调查结果表明,今年他们对自动驾驶汽车的不信任感和误解程度明显比往年更深。2月底,特斯拉的一个股东团体向公司发起集体诉讼,指控该公司在宣传FSD性能以及安全风险时存在故意误导。在自动驾驶开发商正在合并或转型的环境下,特斯拉对自动驾驶的不清晰表述,可能会进一步扰乱公众认知。
硅谷企业得到的教训
乔治梅森大学机械工程、电气、计算机工程与计算机科学教授兼NHTSA前高级安全顾问Missy Cummings在发给SAE的邮件中写道,“特斯拉一直使用经典的‘只要不拆穿,就继续装下去’的手段”(fake-it-til-you-make-it),但他们必须面对现实。Cummings认为NHTSA没有强迫,而是“礼貌地催促”特斯拉召回FSD。特斯拉首席执行官Elon Musk曾表示Cummings对特斯拉存在偏见。
Guidehouse Insights首席电动出行分析师兼SAE专栏作家Sam Abuelsamid表示,各方都对此负有责任。他坚称,“允许特斯拉走到这一步,NHTSA和FTC(美国联邦贸易委员会)都有责任。在特斯拉于2016年刚开始销售FSD系统时,NHTSA就应该立即叫停,直至特斯拉能验证其系统与宣传相符。” Abuelsamid补充说,“此外,虽然AutoPilot系统没那么糟糕,但当初也不应获得许可。”
美国国防部前官员兼航空航天工程师、自动驾驶模拟器开发商Dactle创始人兼首席技术官Michael DeKort表示,过去一年来,大量自动驾驶开发商合并、缩小规模甚至彻底关闭,再加上特斯拉的FSD召回事件,这证明大多数自动驾驶开发企业一开始就走错了路。DeKort断言,几乎所有自动驾驶开发企业都会在一定程度上夸大其词,特斯拉“只是其中吹嘘得最厉害的。”
但是Abuelsamid指出,特斯拉和其他自动驾驶汽车开发企业之间存在一个根本区别。
自动驾驶汽车开发商Cruise Automation没有为向公众出售的车辆中部署自动驾驶软件。该公司在2022年底表示,其无人驾驶汽车已经行驶了50万英里,“没有发生任何重大事故” (Cruise Automation) 他表示,“我们应该把特斯拉与其他开发自动驾驶系统的公司区分开来。”因为特斯拉是目前唯一一家“在消费者可以购买和控制的车辆上向他们营销任何东西”的公司,也是唯一一家在测试时就向客户提供关键安全系统(基于其成熟度,更准确地说是内部测试版)的公司。其他诸如Waymo、Cruise、Motional和百度等都在严格控制其自动驾驶系统、记录所有数据并进行全时段监控,甚至对无人驾驶汽车也是如此。Abuelsamid坚持说,“没错,这些汽车也存在问题,但它们始终处于可追踪之下。”
用OTA修补
特斯拉打算通过OTA更新来解决NHTSA对FSD性能的担忧。但专家们认为,仅仅通过软件“修复”系统对少数特定驾驶情景的反应,不能解决FSD背后更深层的问题,即以人工智能为导向的算法问题。 “导致FSD召回的相关问题可以得到解决吗?当然可以。”Abuelsamid说,“被召回的FSD可以得到充分修复吗?这还有待观察。” 他继续说,“与其他更确定的方案相比,这是以人工智能为优先,且仅采用人工智能技术的方案所面临的挑战之一。人工智能是概率性系统,而且会做出主观判断。和人类一样,AI有时也会判断错误。正如我们最近看到的大量有关人工智能聊天机器人(如ChatGPT)的新闻,人工智能往往会提供一个看似合理、但实际上并不正确的答案,并且让人信以为真。” 人工智能视觉系统也是如此。他表示,特斯拉的目标是打造一个可以安装在所有汽车上的通用自动驾驶系统,“如果你开始设置监管限制,这一目标就会更难以实现——而且还会与整个商业模式背道而驰。
尽管如此,还是有必要进行监管。” 特斯拉的OTA是否仅仅是为了满足监管机构要求的表面工作,只是为了简单了解问题严重程度?Cummings认为,对FSD的任何实质性改进都不可能迅速完成。DeKort也认同,考虑到特斯拉有大量的客户用途操作域,解决NHTSA与FSD的问题会是一项艰巨的任务。 Cummings表示,“虽然这些问题可以通过OTA来解决,但我认为根据专门召回FSD的实际情况来看,需要经过几年的不懈努力才能真正解决问题。而在一年多前,特斯拉就曾表示,他们已经解决了撞上静止物体的问题,但情况显然并非如此。” DeKort认为,特斯拉FSD系统存在的问题非常严重,仅通过NHTSA所提到的情况做出整改是远远不够的,“我相信特斯拉会做出一些改进。但与其他公司一样,特斯拉在公共交通运输领域实现SAE L4级自动驾驶的目标还远未实现,甚至情况还要更糟,因为他们的传感器套件并不成熟。”
可靠的解决方案
然而,一些专家认为,特斯拉的FSD系统可以为开发企业和监管机构提供更好的实践参考。DeKort说,迄今为止,仍然没有一个用于衡量自动驾驶汽车的行为和性能表现的通用标准,虽然欧洲已经制定了新标准。
Alphabet旗下的Waymo将其Waymo Driver自动驾驶系统部署在各种测试车辆中,包括8级卡车。该公司拥有数百万英里的无事故无人驾驶运营,但在公共道路测试中也出现了零星的不良结果。(Waymo) Abuelsamid表示,“监管机构需要与特斯拉和其他想要走相同路线的汽车制造商积极“沟通”。他们需要立即介入并叫停这种对自动驾驶功能的错误宣传,而且应该禁止对关键安全系统进行开放道路测试。特斯拉在部署和开发FSD方面一直都非常轻率,但六年多来,监管机构也没有尽到监管义务。” Cummings表示,对自动驾驶性能的夸大其词“是一个严重问题”。
加州已经把这一举动归为非法行为,这应该成为一项国家政策。许多人正在因为太过相信自动驾驶系统而失去生命,而虚假宣传是罪魁祸首之一。 与此同时,DeKort多年来一直坚持认为,几乎所有的自动驾驶开发企业都走在错误的战略道路上。在使用现有战略的情况下,任何开发企业都“永远无法打造接近”SAE L4级或L5级的自动驾驶汽车。他表示,可以从三大方面解决这一问题:
接受和利用通用人工智能技术(AGI);
几乎完全专注于模拟测试,而不在真实开放道路上进行测试;
采用美国国防部或联邦航空管理局(FAA)级别的仿真技术,而不是使用基于游戏的仿真引擎。
审核编辑:刘清
全部0条评论
快来发表一下你的评论吧 !