论文部分内容阅读
视觉同步定位和建图(Visual Simultaneous Localization and Mapping,VSLAM)在机器人自主导航、无人驾驶、虚拟现实和增强现实等应用中取得了瞩目的发展。但VSLAM依靠单一的视觉传感器在快速旋转或缺少纹理的环境中,定位精度较差。为使VSLAM定位算法能够应对复杂多变环境,多传感器信息融合成为研究重点。由加速度计和陀螺仪组成的惯性测量单元(Inertial Measurement Unit,IMU)可以测得物体的角速度和加速度信息,且采样频率高,能适应快速运动,与VSLAM融合能有效提高定位精度,但不同频率的多传感器信息融合存在巨大挑战。因此,本文主要对VSLAM的视觉与惯性测量多传感器融合算法进行深入的理论研究和探索,并考虑VSLAM算法存在的实时性和鲁棒性问题,主要研究内容和成果如下:(1)针对基于特征点法的VSLAM算法存在的特征匹配耗时问题,本文利用光流跟踪的快速性,采用ORB特征和改进光流的匹配方式,以提升算法跟踪部分的实时性。并考虑到光流快速匹配带来的不稳定性,使用多层图像金字塔组合迭代光流的策略提升光流匹配的稳定性。(2)针对VSLAM算法在动态环境中动态异常点造成的数据错误关联问题,本文基于随机样本一致性原理(RANSAC),提出一种组合重投影误差和迭代RANSAC的离群点抑制机制,通过重投影误差构建静点和异常点的分离模型,在计算前筛选、剔除离群点从而提升算法应对动态环境的鲁棒性。(3)本文设计一种基于双目的纯视觉SLAM算法,在此框架上进行提升实时性和增强鲁棒性的方法实现。并通过公开数据集对算法的定位精度进行评价,验证算法的有效性。(4)在提出的双目视觉里程计基础上,通过对IMU运动建模和预积分理论推导,设计一种基于预积分的视觉与惯性测量融合的视觉惯性里程计定位算法。考虑视觉与惯性测量融合的不稳定性,设计一种自适应的跟踪策略,根据跟踪状态选择纯视觉跟踪或者视觉惯性跟踪。并通过公开数据集对比提出的纯视觉算法和视觉惯性算法,从而验证视觉与惯性测量融合能有效提升纯视觉SLAM对于快速旋转的鲁棒性。