论文部分内容阅读
为了满足搭载低成本传感器的机器人在复杂环境中连续、准确定位和建图的需求,针对密集Li DAR过于昂贵而低成本的“稀疏Li DAR-相机”系统不够完善的问题,本文提出了一种基于Li DAR/相机/INS/GNSS的机器人定位与建图技术,并在校园开阔和复杂环境下通过实验验证了所提方法的有效性。本文的主要研究内容和主要成果如下:针对前人的Li DAR-相机标定方法精度不高和需要特定的标定靶或标定场地导致操作不够简易的问题,本文提出了一种利用相机拍摄红外扫描线的Li DAR-相机标定方法。该方法只需要利用生活中处处可见的墙角结构和能够记录Li DAR红外扫描特征的相机,在保证简便性的同时标定结果能够达到当前的先进水平。首先,分析了使用红外扫描线进行标定的可行性,比较了六种主流Li DAR激光的波长与普通工业相机的量子效率;接着,从预处理后的图像中提取红外扫描线对应的2D点,并使用面拟合提取点云中对应的3D点;然后,通过仿真实验验证了本文所提出的面拟合提取的点云3D点精度;最后,通过中误差、重投影误差和投影效果三个方面完备的验证本文所提出的标定方法的精度。本文提出的方法得到的Li DAR-相机标定精度达到约0.1度和0.5厘米,在图像上XY轴方向上重投影误差都小于1.4像素,标定投影效果比主流开源自动驾驶软件Autoware更加准确,可见本文所提方法在保证其简便性的同时能够达到当前的先进水平。针对密集Li DAR过于昂贵而稀疏Li DAR无法很好地进行特征提取和低成本的“稀疏Li DAR-相机”系统不够完善的问题,本文提出了一种动态条件下异步Li DAR-相机实时特征融合方案方法。首先,将Li DAR、相机、GNSS、IMU等传感器的时空基准统一,其中Li DAR和相机的外参是利用本文所提标定方法得到的;接着,以GNSS/INS组合导航的定位结果作为纽带将运动条件下异步采样的点云、图像进行配准;然后,利用分割、聚类和滤波得到点云的几何特征,通过深度学习获得图像中动态目标的语义特征,再将点云、图像在特征层面进行融合;最后,基于移动机器人平台测试评估了特征融合的准确性和实时性。实验结果表明,本文提出的方法能很好的融合稀疏Li DAR点云和相机图像的特征信息,在移动载体上对复杂环境下行人和汽车的点云类别提取成功率均达到90%以上、点云提取准确率均达到85%以上。此外,该方法在电脑和嵌入式处理器Xavier上平均耗时分别为55.5ms和37.8ms,均能达到10Hz频率的实时处理效果。针对实际环境十分复杂导致定位与建图结果不够准确的问题,本文设计了一种基于Li DAR/相机/INS/GNSS的机器人定位与建图方法。首先,设计了INS辅助的Li DAR里程计,利用惯导短时高精度的特性提高Li DAR里程计定位精度;接着,基于误差状态卡尔曼滤波将Li DAR里程计速度与GNSS/INS组合导航进行实时融合,并针对实时融合中计算延时的问题设计了一种INS辅助的速度外推方法;然后,利用Li DAR/GNSS/INS融合的高精度定位结果将点云转换到地图坐标系下,并根据点云图像特征融合结果构建剔除动态物体的彩色点云地图;最后,在开阔环境和包含大量GNSS信号不佳场景的校园复杂环境中基于移动机器人平台进行测试与评估,本文所设计的GNSS/INS/ODO/LO融合方案相比GNSS/INS松组合在校园复杂环境下“北-东-地”方向上误差的RMS分别改善了79.5%、55.4%和68.1%,在航向误差的RMS上改善了11.0%,“北-东-地”方向上误差最大值从9.44米、3.46米和3.29米分别降低为0.792米、1.20米和0.94米。本文所构建的特征点云地图能够很好的将动态特征在点云地图中标注或剔除,构建的彩色点云地图中道路、斑马线、车道线清晰可见,效果较好。特别是对于复杂环境下行人和车辆较多且机器人暂未实现自动行驶功能的情况,一般方案所构建的点云地图会包含机器人操作员和道路上汽车、行人等许多动态物体,而本文提出的方法能够很好地解决这一问题。综上所述,为了满足搭载低成本传感器的机器人在复杂环境中连续、准确定位和建图的需求,本文从Li DAR-相机高精度标定、动态异步点云-图像特征融合以及Li DAR/相机/INS/GNSS融合定位与建图三个方面最终解决了低成本的“稀疏Li DAR-相机”系统不够完善和复杂环境导致定位与建图结果不够准确的问题。基于移动机器人平台在校园复杂环境对系统进行测试与评估,结果表明本文所设计GNSS/INS/ODO/LO方案与GNSS/INS方案相比有明显的改善,本文所构建的彩色点云地图道路、斑马线、车道线清晰可见,也从侧面印证了Li DAR-相机标定和动态异步点云-图像配准的准确性。