自动驾驶技术让你更自信的吃鸡

描述

视线遮挡一直是自动驾驶很难攻克的问题。Occlusion,也就是视线遮挡,主要指因为建筑物、障碍物或是其他车辆遮挡视线,导致汽车无法做出最佳决策。在车辆转弯时候尤为常见。

大家在玩吃鸡的时候,都需要找遮挡物。子弹就好像自动驾驶车的雷达波束,只能到达直线以内的范围。障碍物后面的敌人就没办法打到了。

有什么办法能让你看穿遮挡物,做到提前预判呢?斯坦福大学和麻省理工各有各的方法,都可以用于自动驾驶。我们一起来看看。

非线性图像识别 - 斯坦福大学

斯坦福图像识别组这周刚刚在Nature发表了一篇论文“Confocal non-line-of-sight imaging based on the light-cone transform”,提出非线性图像识别技术(Non-line-of-sight imaging)

首先,把雷达放在一个光子探测仪旁边。雷达发出波束,就像普通自动驾驶车一样。波束接触到墙面,就会散发出余光。假设图片里的右下角的兔子是我们需要探测到的行人。

普通自动驾驶车只会看波束返回时间,也就是到P点的时间,从而计算与自动驾驶车的距离。但是这次我们要看波束弹射出的余光。光子探测仪会捕捉这些余光。波束虽然没有直接照在那只兔子上,但余光会按照一定顺序弹在其他表面上。

将所有余光集中在一起,排除那些直接反射回的光束,剩下的就是来自遮挡物的。由此就可以还原出目标物体的3D原型。现在的计算过程只需要1秒钟,但是还不够高效,现实驾驶环境需要司机在0.5秒内做出反应。

眼神会转弯的摄像头 - 麻省理工

看过了雷达技术,我们再来看看自动驾驶车另一大传感器:摄像头。不知大家有没有留心观察过墙角的光线变化。肉眼大概能看出有一些深浅的区别。

麻省理工Media Lab最新研究出一种颜色处理方式。通过处理图像,加强颜色差,不停变化颜色,就可以得到一连串的单向光线图像。

假设现在墙后面有两个行人,一个穿蓝色,一个穿红色,蓝色衣服的人正在超过红色衣服的人。我们看到的成像就会是这样的。

原理很简单。被遮挡的人虽然我们无法直接看到,但是他们还是会反射一部分光。红色衣服的人和蓝色衣服的人会有重叠的地方。通过一段时间观察,绘制光线图,就可以分析出有几个物体在重叠。

这些发明除了自动驾驶也可用于其他领域,比如自然灾害后的搜救、医学成像、航天、安保监控等等。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分