论文部分内容阅读
视觉SLAM(Simultaneous Localization And Mapping)使得移动机器人能够在陌生的室内环境中自主定位并感知环境信息,是移动机器人完成智能交互、自主导航等高级复杂任务的前提。视觉里程计和建图是视觉SLAM中的两个重要部分,视觉里程计是利用相邻两帧的图像信息来估计相机当前的位姿,建图是指利用位姿来生成点云地图的过程。本文针对室内场景的特点,提出了一种基于RGB-D图像的视觉里程计算法,和一种创建语义地图的方法。该方法能够有效提升视觉SLAM算法的定位精度和鲁棒性,并可以实现对环境的语义感知。(1)室内场景同时具有低纹理、密集重复结构的特点,采用基于图像特征点的视觉里程计算法进行定位和建图时,由于特征点不足、误匹配点多,会导致定位精度低、甚至跟踪丢失。本文提出一种基于点、线特征和GMS(Grid-based Motion Statistics)的视觉里程计算法。针对特征点不足的问题,该方法将点、线特征相结合,在低纹理和密集重复结构区域,加倍特征的提取数量;针对误匹配点多的问题,采用GMS算法快速地将大量粗匹配点特征转换为高质量的有效匹配点,并采用RatioTest算法对线特征进行精匹配。实验结果表明,对于TUM数据集中12组结构纹理丰富的序列、6组具有不同的结构和纹理特点的序列,与ORB-SLAM2算法相比,采用本文算法的绝对轨迹误差分别平均降低了 11.82%和14.40%,相对位姿误差平均降低了 3.34%和7.41%,有效地提升了系统的定位精度和鲁棒性。(2)传统的视觉SLAM建立的地图仅包含简单的几何信息和位置信息,不包含语义信息,无法满足移动机器人完成高级复杂任务的需求。针对以上问题,本文提出一种基于YOLO(You Only Look Once)v3的三维语义地图生成算法。本文算法使用YOLOv3目标检测网络对关键帧图像进行物体检测,并与原始点云进行融合,生成带有颜色信息的点云,作为点云聚类的先验知识;采用超体素聚类对融合后的点云进行聚类,再利用图割的方法完成对物体的分割,建立语义地图。实验结果表明,本文提出的基于点、线特征和GMS的视觉里程计算法,与ORB-SLAM2算法相比,能生成更高质量的带有颜色信息的点云数据,被分割出来的物体更多;和传统的区域生长分割算法相比,本文提出的基于YOLOv3的三维语义地图生成算法能分割出更丰富的语义信息。