论文部分内容阅读
未知环境下移动机器人同时定位与建图(Simultaneous Localization andMapping--SLAM)是当前移动机器人研究的热点。随着移动机器人探索规模的扩大,机器人在大规模环境下同时定位与建图的鲁棒性显得尤为重要,而可靠的闭环检测是构建鲁棒SLAM中最重要最关键的问题之一。闭环检测是机器人判断自己当前位置是否位于己访问过的环境区域,并以此作为地图是否需要更新校正的依据,对于提高大规模环境下的SLAM鲁棒性有重大意义。激光传感器是SLAM中应用最广的传感器,大规模环境下基于激光的SLAM采用算法本身产生的位姿估计,存在累计误差的问题,从而可能导致闭环检测失败,而视觉特征包含的信息丰富,在多视点匹配上更适合用于闭环检测。视觉SLAM中在不需要位姿估计的前提下可通过视觉特征的匹配实现闭环检测,但该闭环检测方法与视觉SLAM过程联系紧密,只能应用于视觉SLAM。
针对以上两方面问题,本文提出了一种在基于激光的SLAM中使用视觉特征检测闭环的方法。这种方法不依赖于机器人自身位姿估计,通过提取出有效稳定的视觉特征用于匹配,完成闭环检测,提高了基于激光的SLAM方法在大规模环境下的鲁棒性。主要内容包括:1.有效特征提取:直接从图像提取视觉特征,提取的特征数量较多,会导致计算代价大与匹配不稳定问题,故本文先确定将要提取特征的感兴趣区域,再从感兴趣区域提取特征。选择的特征要具有显著性、基线稳定性和可描述性。通过使用显著尺度算法获得显著候选区域,通过MSER(Maximally Stable ExtremeRegions)方法获得稳定候选区域,两种候选区的交集区域作为感兴趣区域,最后从感兴趣区域提中取SIFT特征。2.闭循环检测方法:应用图像特征进行图像匹配,流程为机器人每隔一定距离或时间间隔采集一幅图像,提取特征,存储特征及采集时间,逐步建立数据库。图像通过一定的规则进行匹配,匹配结果作为闭环检测的依据。针对现有基于视觉特征的SLAM闭环检测算法存在的不足,本文提出了使用增量式的Bag ofWords方法,降低了原有方法需要训练大量离线数据的代价,并结合相似场景矩阵,从场景连续性方面提高图像匹配一致性,进而提高闭环检测的准确性。