近日,中国科学院上海微系统与信息技术研究所李嘉茂研究员的研究团队在无人系统视-惯多传感器校准方面取得了重要进展。研究团队通过模拟人体视觉与前庭觉,成功提出一种基于流形传播模型的多传感器校准方法,并在基于视觉惯性里程计(Visual-Inertial Odometry, VIO)的无人车定位导航应用上完成了验证。相关成果以题目为“Fast Extrinsic Calibration for Multiple Inertial Measurement Units in Visual-Inertial System”的学术论文发表在机器人领域顶会ICRA(The 23RD International Conference on Robotics and Automation)上。
类人多感官的多传感融合是智能无人系统感知环境、完成决策的重要手段。其中,通过多传感器校准获取传感器间的外部相对关系,是保障后续多传感数据融合准确、有效的基本前提。多视觉传感器和多惯性传感器(IMU)融合是无人系统自主定位导航应用的主流方案之一,其现有校准方法需要基于精准的传感器运动轨迹,高度依赖外部传感器,并易受到环境条件与观测噪声的影响。
针对以上问题,研究团队提出了流形传播模型校准方法,通过建立两个非线性截断最小二乘问题来分别估计多IMU的相对平移和旋转,利用推导虚拟IMU算法的通用表达在流形上的传播方程,在不依赖外部传感器的条件下,解决了多视觉与多IMU标定的不稳定问题。研究团队将本方法应用于无人车定位导航系统,并在办公室、走廊、室外、车库等真实场景进行了功能验证,速度、准确性和稳健性方面优于SOTA方法。同时,模拟实验表明本方法在仅融合2个IMU预测运动时,其精度可以与9个IMU的效果相媲美。本方法具有良好的可扩展性,支持集成到其他IMU融合算法、VIO和激光雷达惯性里程计(LIO)系统。
图1:多传感融合原型系统
图2:在多场景视惯定位中基于本方法的双视觉双IMU方案均取得最优性能
上海微系统所于有为工程师为该工作的第一作者,李嘉茂研究员为通讯作者。上述研究工作获得科技部科技创新2030、国家自然科学基金、上海市级重大专项、上海市优秀学术带头人、中科院青促会项目等支持。
全部0条评论
快来发表一下你的评论吧 !