论文部分内容阅读
本文在搭载有Kinect视觉传感器和SICK LMS100激光传感器的Pioneer-3AT机器人硬件平台上,在开源操作系统ROS框架内,搭建了一个完整的基于骨架追踪和语音标注的交互式栅格-拓扑-语义层次地图构建和导航系统。整个系统包括交互模块,控制模块,制图模块和导航模块四个主要部分。交互模块中:本系统使用了基于Kinect骨架追踪和基于科大讯飞云服务的视觉-语音交互手段。机器人通过Skeleton Tracking算法获取用户的骨架位置信息,通过手机端的语音识别APP记录对于人类来说有特殊意义的地点的语义名称。控制模块中:机器人将视觉交互模块获得的骨架位置信息按照一定的函数关系转化成机器人的角速度和线速度从而跟随用户移动。制图模块中:在跟随用户移动过程中机器人自下而上的建立了栅格-拓扑-语义三层地图。机器人通过Gmapping算法使用里程计和激光数据实时构建出周围环境栅格地图。将特殊地点语义名称结合栅格地图的坐标位置值定义为拓扑节点,使用增量算法构建出拓扑地图。最后抽取出每个拓扑节点的语义名称,建立语义地图。底层栅格地图用于机器人理解环境,上层语义地图用于人类理解环境,中间的拓扑层通过在语义名称和坐标值之间建立对应关系,成为上层地图和底层地图之间联系的桥梁。导航模块中:用户通过手机端APP向机器人发送目的地语音名称,机器人收到语音信号后,首先在语义层地图找到相应的语义节点,然后在拓扑层找到对应语义节点的坐标值,最后将栅格地图转化成耗散地图,使用Adaptive Particle Filter算法完成全局定位,A*搜索算法完成路径规划,最终到达目的地。交互式制图因为加入了人类智力不仅可以提高机器人的制图效率,而且可以在地图中加入人类语义信息。栅格-拓扑-语义层次地图可以在人类认知环境方式-语义概念和机器人认知环境方式-传感器数据之间建立桥梁,有效减少人机之间的认知鸿沟。此外,整个系统在ROS框架内实现,严格按照功能不同对程序进行了模块化,使本系统具有良好的可扩展性和可移植性。并在不同的真实环境下做了大量的实验和测试。实验结果表明,交互式构建栅格-拓扑-语义层次地图能够有效地结合环境信息和人类语义,高效完成地图构建和导航任务。相信本系统可以应用在室内家居服务机器人,博物馆导览机器人,智能轮椅等之上,改善人类的日常生活。