论文部分内容阅读
随着人工智能技术的快速发展,移动机器人成为目前科学研究的热门领域之一。定位作为移动机器人的基础模块,是移动机器人实现自动导航的关键技术。近些年,计算机视觉技术的进步使基于视觉的移动机器人定位方法开始得到关注和研究。视觉能够为移动机器人定位提供丰富的信息,但信息的不确定性也会对定位精度造成影响,如何利用视觉实现实时的移动机器人精确定位成为本文主要研究内容。 首先,本文介绍了移动机器人定位技术,重点比较了多种传统的移动机器人定位方法,引出了基于视觉里程计的定位方法。同时介绍单目、双目、RGB-D三种视觉里程计方法,选择双目视觉里程计作为移动机器人定位方法。 然后,本文分析了双目立体视觉系统。对线性和非线性摄像机成像模型进行推导,重点分析了平行式和汇聚式双目相机模型,在此基础上研究了双目视觉中的对极几何约束,并通过实验单目和双目摄像机标定方法对双目图像序列进行预处理。 接着,本文设计实现了一种基于特征点匹配的双目视觉里程计算法。利用GPU加速的SIFT算子SiftGPU提取左右图像特征并进行稀疏立体匹配,然后对前后帧图像进行帧间SIFT特征追踪,并在RANSAC策略下通过运动估计获得相机位姿(旋转矩阵和平移向量),实验表明该算法能够实时估计相机位姿,但是会存在帧间误差,且误差会累积造成轨迹漂移。 针对基于特征点匹配的双目视觉里程计算法中的帧间运动估计误差,本文在该算法基础上提出了一种基于局部优化的双目视觉里程计算法。本文先从基于滤波的相机位姿估计方法开始,分析了非线性优化在双目视觉里程计中的优势。为了提高计算效率,将图像序列分为关键帧和非关键帧,通过可变滑动窗口对相邻的关键帧位姿进行局部优化。实验表明该算法能够显著减小帧间运动估计误差。 最后,为了减小误差的累积和运动轨迹漂移,本文在局部优化的基础上通过词袋模型进行回环检测,并对回环内的相机位姿进行全局优化。实验表明,基于局部和全局优化的双目视觉里程计算法满足实时性要求,并且具有更高的定位精度。