论文部分内容阅读
近几年来,移动机器人正在民用、工业及军事应用中开始取代人类并承担一些简单的搬运任务。移动机器人在执行任务过程中往往需要时刻知道自己的所处的位置以实现准确搬运。为此,移动机器人上一般会安装各种传感器并结合定位算法实现移动机器人的精确定位,但是目前许多定位算法都是基于单传感器或者是多传感器之间坐标统一的情况下完成的,这会造成较差的定位精度。本文考虑到现实应用过程中各个传感器彼此耦合,但多传感器之间位置不统一的情况,设计了一套基于移动机器人单目视觉与里程计相结合的自主数据融合与定位算法,该算法在不需要任何环境先验常识的前提下实现机器人的自主定位。本文提出的定位算法中,视觉和里程计的传感器数据会进行时间戳同步以方便后续的数据处理;视觉系统将会先利用视觉定位的初始化过程归一化视觉系统的尺度;算法会执行带尺度不确定性的手眼标定实现单目相机与里程计的外参标定和视觉系统的尺度估计。通过两个传感器间的外参和尺度估计结果,实现移动机器人的定位。但是粗略的标定结果无法满足移动机器人的定位精度要求,系统通过构建一个基于光束平差法误差函数和里程计测量误差函数的图优化系统来完成对移动机器人位姿和外参量的非线性优化。为了保证移动机器人定位算法运行的实时性,本文将算法框架分解成了3个线程并行进行运算,其中跟踪线程将会执行定位过程中的特征匹配和移动机器人的位姿估计;局部地图线程将会对系统中的关键帧进行收集形成局部地图,并对系统中的外参量、移动机器人的位姿以及特征点坐标进行整体优化;闭环检测线程则是用来检测机器人在运动时的视觉场景的重复观测,结合视觉闭环实现机器人的重定位并通过重定位约束修正移动机器人在视觉定位过程中的尺度。为了验证本课题提出的算法对视觉和里程计间外参标定的准确性和可靠性,本课题通过KITTI数据集对本文提出的粗标定算法和精标定算法进行了对照仿真实验,验证了本文提出的粗标定算法与非线性优化结合后精确性的提升;为了验证本课题数据融合算法对实际移动机器人运行环境下的稳定性,本文将本课题提出的算法与经典的标定算法进行了对照实验,以均方根误差作为评价指标验证了本课题算法对视觉和里程计进行外参标定的精确性和鲁棒性;为了验证本课题提出的数据融合算法在移动机器人定位中的准确性,本文仍然采用KITTI数据对本文提出的粗标定算法和精标定算法得到的外参进行融合定位仿真实验,验证了精标定算法对移动机器人定位的有效优化和改善。最后,本文通过在实验室运动捕捉系统的参考下对本课题算法进行了实验对比验证,说明了本课题提出算法对移动机器人定位的精准性和稳定性。本文提出的算法对于一个搭载单目相机和里程计的移动机器人平台,在不需要任何环境先验知识的前提下能够实验精准的传感器之间的外参标定和数据融合,并通过各个传感器之间的数据冗余为移动机器人提供准确的定位信息。