无人机自动避障原理是怎样的

军用/航空电子

365人已加入

描述

技术原理:双目立体视觉(Binocular Stereo Vision)

早在20世纪70年代中期以Marr、Barrow和Tenenbaum等人为代表的 一些研究者提出了一整套视觉计算的理论来描述视觉过程,能使图像中的物体恢复到三维形状。经过近四十年的发展,在马儿(Marr)的理论框架下,如今能够运算得出物体所处的环境的三维模型,智能避障碍物的功能也是其应用的最显着功能之一。

马儿(Marr)的视觉计算理论框架,主要分为三个测算部分,第一部分是早期视觉,拍摄的图像,感知前方物体的位置、方向、表面的纹理、光泽、阴影形状等信息;第二部分是二维体现,将第一部分收集的信息进行2.5D维度的建模,确立以无人机为中心的坐标轴体系,将画面中的物体的表面以坐标点的形式体现在坐标轴上;第三部分是三维空间构建,在2.5D维度的建模以后,仍有Z轴数据(物体与无人机距离)无法确定,这时需要用到三角测距的计算原理,通过计算机运算测算出最终位置,建立空间三维模型。

在前半部分主要是对环境信息的收集绘制工作,而第三部分中,涉及了另一项技术——双目立体视觉。所谓双目立体视觉,是利用两个不同视觉的图像传感器,固定之间的距离,测量物体与传感器之间的夹角,将物体与根据三角测距定理,已知两传感器之间的距离和物体与两传感器之间的夹角,能够计算出物体与无人机之间的距离。

避障是鸡肋还是黑科技?

简单来说“双目测距”,就是一个套路的运算,但当中包含了N套的代数方程组,在早期的无人驾驶汽车当中,也运用了该逻辑的运算方式,但由于处理量巨大,汽车上都配备了多台顶级的计算机进行协同运算,才能在短时间内做出精准的判断。

在无人机上,一般的无人机飞控处理器,并不能达到这样的运算速度,而一直在研发手机处理器的厂商(如:英特尔、高通公司),凭借其处理器的低能耗和高性能的特点,成为他们的切入点,像采用英特尔处理器的Yuneec Typhoon H、大疆经纬M100的GUIDANCE配件,以及采用高通骁龙处理器的零度XPLORER 2、腾讯Ying、大疆精灵4等产品。

因为强大的计算能力,实时地绘制出三维环境模型,能够实现更多的智能化优化功能,就像在大疆精灵4上实现了“指点飞行”功能,也是依靠前视障碍传感器构建的三维模型实现此操作,同样在跟随模式下,无人机在跟随可视范围内的任务时,将会更加准确。在自动返航的过程中,自动避障也是相对更加安全,对于以前常常撞墙、撞树、撞山的事,总算有一个比较靠谱的解决方案。

原理其实很简单!自动避障并不是特别牛

但由于运算量大,运算时,电压会相应增加,能耗也随即增加,续航时间也会相应下降,实现每增加一个避障方向,运算量将增加一倍,但能够绘制出更加清晰的三维模型。在已发布的无人机产品中,定位开发者使用的大疆经纬M100 GUIDANCE配件是能够实现5方向上的自动避障功能,而定位消费级产品的Typhoon H、精灵4,腾讯Ying等无人机,自动避障功能仅支持前方的视觉的检测。

仅前方避障的好处是保证了续航时间和最大程度上实现自动避障功能,毕竟无人机主要也是往前飞行的,而并非说这无人机能够永远不会撞墙,也有其局限性,当在智能跟随模式下,无人机在人的前面进行跟随,人往前走,无人机会向后运动,无人机无法识别背后的障碍物,无人机撞墙的事情也是很可能发生的。

三大自动避障无人机的缺陷

除此以外,在无人机上使用的视觉障碍传感器有一定的使用范围,大疆的精灵4支持0.7 - 15 米的范围,光照条件要在》 15 lux以上,弱光下无效。而零度Xplorer 2则有些不一样,采用激光雷达TOF测距的原理,头顶的“蘑菇头”发射出激光雷达,以每秒50次的速率360°全方位扫描,绘制出3D模型,在暗光条件下很灵敏,对于关照过强时,并不能很好地识别出障碍物距离。而Yuneec Typhoon H使用Intel的Real Sense技术,单目测距+结构光,有效测距可达10米,通过打出的左红外传感器和右红外传感器追踪这束光的位置,同时受限于暗光下使用,也是不敌强光。

总结

在消费级无人机中加入自动避障,可以说是一场技术革新,很大程度上避免了“撞墙”的炸机情况,但受现在的运算能力、续航能力、技术水平的限制,自动避障无人机都有其各自的受限条件,并未出现一款最为完美的自动避障无人机产品,仍有待日后升级完善。

责任编辑:ct

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分