腾讯科恩实验室通过“欺骗”传感器,使得特斯拉的Autopilot自动辅助驾驶系统

描述

腾讯科恩实验室给特斯拉提前过了一个愚人节,通过“欺骗”传感器,使得特斯拉的Autopilot自动辅助驾驶系统(车辆:Model S 软件版本:2018.6.1)产生误判,最终发现了三个“漏洞”。

雨刷的视觉识别漏洞

特斯拉Autopilot系统借助图像识别技术,通过识别外部天气状况实现自动雨刷功能。科恩实验室利用AI对抗样本生成技术生成了特定图像,并对特斯拉进行干扰,成功导致特斯拉Autopilot“受骗”,车辆雨刷启动。

让我看见你摇摆的双手!

对此,特斯拉官方回复称:这项研究是通过在电视上显示一张图像来进行干扰的,并非日常行车场景,况且这也不能算是安全问题。此外,《车主手册》也明确提到,“自动雨刷功能目前处于测试阶段,客户可随时手动控制雨刷。”

虽然雨刮器确实不影响日常行车安全,但特斯拉的图像传感器和图像处理工具,除了应用在“自动雨刷功能”外,还肩负着识别前方道路环境,跟车行驶等核心功能,如果利用这一“漏洞”生成其他特定图像,是否会干扰到和与安全密切相关的核心功能呢?

而且特定的干扰图像也是会出现在日常行车场景中的,例如不坏好意的人将干扰图像贴在车尾?这样一上路,整条Gai特斯拉的雨刮器,一个也别想休息,全给我摇起来!

吹个牛逼:整条街的特斯拉,见了我都得招手。

车道的视觉识别缺陷

特斯拉Autopilot系统通过识别道路交通标线,可实现L2.5级的自动驾驶。科恩实验室通过在路面部署干扰信息后,导致车辆经过时对车道线做出错误判断,致使车辆驶入反向车道。

请勿模仿!

对此,特斯拉官方回复称:演示中,研究人员调整了车辆周围的物理环境(比如在道路上放置胶带),使汽车在使用自动驾驶仪时表现不同。考虑到司机可以随时接管方向盘或刹车轻松地覆盖自动驾驶仪,而且应该随时准备这样做,所以这不是一个现实世界的问题。”

首先这个问题在现实生活中有一定概率出现,例如一坨鸟屎,是否会导致一辆特斯拉失控,奔向别人的道?自动驾驶普及之后,对道路标线等环境的监管,需要更加严格,不法分子通过恶意改变道路标识,便可造成严重的社会治安问题,想想非常可怕。

作死网友用橘子破解特斯拉的方向盘感应,从而“解放双手”

正如特斯拉官方回复的那样,现阶段人类驾驶员不能盲目自信“自动驾驶”,时刻注视前方道路环境才是对自己人身安全负责的表现。

遥控器操控车辆行驶

最重磅的来了,利用已知漏洞,科恩实验室获取了Autopilot的控制权,并通过实验证明,即使车主没有主动开启Autopilot系统,“黑客”也可以通过游戏手柄对车辆行驶方向进行操控。

什么极品飞车、尘埃、GTA5......都弱爆了好么!这才是游戏手柄的终极使用形态。

“白帽子”们在越过几个保护系统之后,编写了一个应用程序,该程序可将Autopilot系统与游戏手柄相连,越过车内方向盘、油门等驾驶员的人工操作,直接接管汽车的控制权。但是此攻击具有一定的局限性:当车辆处于停止状态(P档),或是在巡航控制下高速行驶时,可以完全接管该车;刚刚从R档换到D档的汽车,只有满足时速为8km/h时,才能被远程控制。

对此,特斯拉官方回应是:“这个漏洞特斯拉通过2017年的一次更新已经修复,随后在2018年又进行了一次全面的更新,这两次更新都是我们在科恩实验室向我们报告这项研究之前发布的。在特斯拉车主上路行驶的这么多年里,官方从未接到任何客户反馈此类问题”

腾讯是特斯拉的第五大股东,科恩实验室的“攻击”并非“本是同根生,相煎何太急”,而是通过发现漏洞促进特斯拉技术上的完善,除了此次“攻击”,科恩实验室此前还多次通过“远程无物理接触”成功入侵特斯拉汽车,特斯拉官方也根据科恩实验室的反馈做了系统上的更新,还在官网公布对科恩实验室的感谢信。总地来说,网络安全是智能网联汽车发展所面临的重要课题,但愿“白帽子”们总能在“黑客”发起恶意进攻前,找到漏洞,把危险扼杀在摇篮里。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分