论文部分内容阅读
随着室内机器人应用的逐步深入,机器人自主导航能力已成为限制室内机器人服务能力提高的瓶颈之一,其中定位是实现机器人自主导航的基础和依据,是制约室内机器人广泛应用的核心技术之一。由于单传感器定位难以保证机器人在各种室内环境中长期稳定工作,融合多个传感器数据的定位方式得到了越来越多的研究与应用。本文在分析单传感器定位基础上,提出了一种融合单目视觉、IMU和轮式里程计传感器的定位算法。首先分别研究了单目视觉定位和IMU定位相关理论,论述了单目ORB-SLAM算法,为多传感器融合奠定理论基础,并通过相关实验分析得出单目视觉定位鲁棒性较差和IMU定位累积误差严重。针对单传感器定位存在的问题,提出了一种基于ORB-SLAM算法的单目视觉/IMU融合定位算法。该融合算法对单目ORB-SLAM算法的Tracking、Local Mapping和Loop Closing三个线程进行改进,并增加数据预处理线程和初始化线程。在EuRoc数据集中的实验结果表明,与单目ORB-SLAM算法相比,本文提出的单目视觉/IMU融合算法定位精度较高和定位鲁棒性较好;与单目VINS-mono算法相比,本文单目视觉/IMU融合算法定位鲁棒性略有不足但定位精度更好,可适用于室内机器人定位。针对单目视觉/IMU融合算法未考虑加速度计传感器的零偏和对重力分量的估计存在误差问题,本文在单目视觉/IMU融合算法中引入轮式里程计传感器,提出一种单目视觉/IMU/轮式里程计融合定位算法。该融合算法采用联合预积分方式融合IMU和轮式里程计数据,并利用该联合预积分改进ORB算法,使用联合预积分误差和视觉重投影误差构建目标函数。为评估算法有效性,论文利用Turtlebot2机器人进行了相关实验。实验结果表明,本文单目视觉/IMU融合算法和单目视觉/IMU/轮式里程计融合算法可以有效改善单传感器定位存在的问题;同时,与单目视觉/IMU融合算法相比,单目视觉/IMU/轮式里程计融合算法定位精度更高,定位稳定性更好,在室内地面环境中表现更优。