电子说
日前,一辆Uber自动驾驶汽车在美国亚利桑那州坦贝市的一条街道上,以每小时65公里的速度撞上了一位横穿马路的女子。该女子在送往医院后不久,不治身亡。这是全球首例自动驾驶汽车路测撞死行人的交通事故,引发了公众的极大关注以及对自动驾驶汽车安全性的担忧。下面就随汽车电子小编一起来了解一下相关内容吧。
事发后不久,坦贝市警察局局长对媒体表示,这场车祸无论是不是人类驾驶,都是不可避免的,这可能不是Uber的错。
然而,这真的是一场无可避免的交通悲剧吗?
众说纷纭的车祸原因
车祸发生后,很多媒体和专家对车祸原因做了分析和猜测。
美国的网友看过视频后表示,在光线昏暗的情况下,摄像头的“视力”通常差得要命,如果用肉眼观察,也许能更早注意到行人横穿。
地平线机器人创始人余凯在接受媒体访谈时,分析猜测认为造成有可能是这辆自动驾驶汽车的预测判断做的不好,出现了问题,没能准确预判出障碍物的走向。
眼擎科技创始人朱继志在其微博中表达了不同的看法。他认为,问题在于摄像头,人从暗部走向亮部,因为路灯的原因,光线明暗反差太大。在暗部的时候,汽车没有监测到,等行人走到亮部的时候,汽车虽然监测到,但已经太迟了。
同时,他认为夜间道路光线环境太复杂,汽车摄像头的动态范围需要提升30倍以上,自动驾驶汽车才有上路的可能。
也有业内人士分析,这辆Uber自动驾驶汽车已经检测到了行人,只是没有采取刹车或停车措施,致使酿成撞人事件。
传统成像技术的天花板
众所周知,当前无人驾驶汽车所采用的视觉系统 ,主要是基于摄像头和光学雷达。有业内人士对其相关的视觉性能优势和缺陷做了分析对比:
从图中我们不难得出一个结论,没有一种方案是完美无瑕,万无一失的。对于基于传统成像技术的摄像头而言,受光照条件的影响非常大,在强光、弱光、逆光、反光等情况下,基本歇菜。
而当前最受车企青睐的激光雷达,也有很难逾越的短板。且不说,短期内无法迅速降低的成本,除了分辨率低外(当然现在已经有128线,甚至300线的激光雷达,但与摄像头的分辨率还是不可同日而语),最大的问题是无法辨识颜色,即无法表示交通标示。
另外,激光雷达也受环境的影响,就连特斯拉和谷歌都承认,即使是堆满昂贵摄像头和激光雷达的无人驾驶汽车在大雪天也基本被废掉一半功力。
现在的自动驾驶汽车都采用摄像头与雷达搭配的方案(或激光雷达+摄像头,或毫米波雷达+摄像头),妄图弥补各自的不足。但显然这样的策略也没有达到1+1>2的效果。原因很简单,一方很难弥补另一方的短板。比如Uber自动驾驶汽车撞人致死的事件中,显然车上的摄像头因为光线问题没有监测到正要横穿马路的路人(除非汽车的刹车系统坏掉了),而激光雷达即使监测到了有反射信号,也无法判断出是行人。正如有专家分析,因为其局限性,光学雷达并不是为检测行人设计的。因为光学雷达分辨率有限,刷新率不高,更无法获取物体对象的颜色信息。所以它不善于实时地分辨物体。
给自动驾驶汽车一双慧眼
从Uber自动驾驶汽车传感器示意图看,这辆出事的自动驾驶汽车上面也安装了不少摄像头,并且这些摄像头都正常工作,却并没有避免悲剧的发生。为什么?
很简单,这些摄像头的视觉能力比不上人眼。
正如专家所说,传统的摄像头成像技术,机器的视觉能力无法与人的眼力相比,甚至很难接近。因为传统的成像技术更专注于做给人看的图像处理,即做图像的优化。而在机器的眼中,不注重像素高低,更不需要美颜,它需要的是精准的测量现实世界,不仅色彩高度还原、而且边缘清晰、锐度高等。
这就意味着传统的摄像头无法满足AI机器在复杂光线下的正常运作。
而对于驾驶员辅助系统,关键挑战则在于保证系统在任何环境状况下(温度变化、阳光照射、黑暗中或雨雪天气)都能正常工作,而且还要能辨认出300米以外的物体。
事故发生后,Uber暂停了自动驾驶汽车路测,丰田暂停了自动驾驶汽车的路测,据说,英伟达也暂停了自动驾驶汽车的路测。
希望之光
不久前拜访眼擎科技时,工作人员向笔者演示了他们最新推出的一项AI视觉成像引擎视觉技术成果:在昏暗办公室内,搭载了眼擎科技AI视觉成像引擎方案的摄像头在室内只有一台电脑显示屏作为光源的条件下,呈现出了明亮、清晰、色彩还原度相当高的图像。而此时,人眼已无法分辨出被拍摄对象的颜色和轮廓。
对此,工作人员解释说,眼擎科技希望解决的是AI机器在复杂光线下的自动适应能力。
有关资料显示,不论2D还是3D摄像头都需要图像传感器有至少130dB的高动态范围(动态范围指一个多媒体硬盘播放器输出图像的最亮和最暗部分之间的相对比值)。只有这么高的动态范围才能保证,即使阳光直射到镜头上,传感器也能得到清晰的图像信息。普通的镜头系统动态范围远远低于这个值。
该工作人员解释,眼擎科技的方案在成像的动态范围上比人眼高18db,所以在人眼无法辨别色彩的极弱光条件下仍能输出清晰的彩色图片。
今年1月份,眼擎科技发布了全球首款完全自主研发的AI视觉前端成像芯片“eyemore X42”。
据悉,eyemore X42成像引擎芯片,拥有比传统ISP高20倍的计算能力,采用了20多种新的成像算法,集成了超过500种不同场景下的复杂光线数据。
其中一个重要原因,eyemore X42抛弃了传统的ISP成像架构,采用了全新的成像引擎架构,来解决复杂光线下的成像难题。
除此之外,eyemore X42芯片还具有独立成像以及API接口丰富的特点。
就像人眼拥有超强的视觉能力,不仅仅在于强大的光学成像系统,更重要的是人眼通过神经与大脑的交互。基于此,眼擎科技也为成像引擎设计了一套与后端AI算法的交互架构,来获知AI对图像的需求。
眼擎科技创始人朱继志表示,这种与AI系统的交互能力,将使得成像系统真正成为AI的有机器官。
写在最后
在本月初的“2018全球AI芯片创新峰会”上,眼擎科技与商汤、地平线等AI新秀一起荣膺“年度AI先锋”奖,代表了业内对眼擎科技AI视觉前端成像技术的认可。
诚然,从Uber和丰田相继叫停路测来看,公众对自动驾驶汽车最大的顾虑还是安全问题。而安全问题的解决,主要取决于车辆本身能否及时监测到危机或作出及时的处理。这就需要自动驾驶汽车整个产业链的成熟发展,包括道路基础建设和5G网络的兴起,而其中最关键的还是需要车辆本身有一双慧眼。而传统的摄像头成像天花板已非常明显,以眼擎科技AI视觉前端成像引擎技术为代表的新生代,或许是冲破天花板的希望所在。
附2015年至今的全球13起自动驾驶汽车交通事故:
时间
事件梗概
2018年3月23日
23日,一辆特斯拉2017 Model X在美国加州101号高速公路上行驶时,撞上了公路的护栏后起火,并被后方两辆来车撞上。
2018年3月18日
美国亚利桑那州一名女子被Uber一辆正在路测的自动驾驶汽车撞伤,被撞女子身亡
2018年1月22日
一辆开启了自动驾驶模式的特斯拉Model S在洛杉矶405高速公路上撞上了一辆停在路边的消防车。
2018年1月12日
一辆特斯拉Model 3翻入了一条小溪
2018年1月10日
在美国宾夕法尼亚州匹茨堡,一辆厢式货车闯红灯,撞到了福特的一辆自动驾驶汽车
2017年12月7日
在温哥华,一辆Cruise自动驾驶汽车正以自动驾驶模式行驶,变道时剐蹭了变道中的一辆摩托车
2017年11月8日
在美国拉斯维加斯,一辆无人驾驶巴士与一辆卡车相撞
2017年3月24日
在亚利桑那州坦佩市,一辆测试中的Uber自动驾驶汽车与一辆普通汽车发生了碰撞。
2016年9月23日
在美国山景城,谷歌的一辆无人驾驶测试车遭受了一辆道奇商用货车的严重撞击。
2016年5月7日
一辆特斯拉Model S在佛罗里达州高速公路上与一辆垂直方向开来的挂车发生相撞
2016年2月14日
在硅谷芒廷维尤市,谷歌的“雷克萨斯”牌改装无人驾驶汽车在路测时,与一辆公共汽车的右侧相撞。
2016年1月20日
京港澳高速河北邯郸段,一辆开启了自动驾驶模式的特斯拉轿车直接撞上一辆正在作业的道路清扫车
2015年7月1日
谷歌公司一辆雷克萨斯牌改装无人驾驶样车在加利福尼亚州芒廷维尤市街头测试时发生追尾事故
全部0条评论
快来发表一下你的评论吧 !