论文部分内容阅读
环境理解是移动机器人自主完成各项任务的前提和基础,也是机器人智能度高低的决定因素之一。本文面向移动机器人运动安全保障和自身位姿估计,以仿生为立足点开展了基于仿生视觉和激光雷达的机器人复杂环境理解与运动决策研究。 首先,本文概述了机器人环境理解的研究现状,介绍了视觉认知、激光雷达信息理解与机器人自身位姿估计相关的技术与方法,并对研究背景和论文结构做了介绍。 其次,设计了三种人工视神经元,提出了一种以前馈等级网络为框架的通用仿生视皮层模型,并引入自组织机制实现了同层神经元的信息交互与调整。该模型可以将各种不同的图像元素抽象成具有特定权值的线段,从而描述图像的结构信息以及表达图像元素间的空间关联,这和现有的用于局部特征提取的仿生视皮层模型具有本质区别。 第三,设计了机器人仿生视皮层,对通用仿生视皮层进行了实时性和信息理解两方面的改进。在选择性注意机制的启发下,设计了一种注意焦点检测器用于选择性激活S层中的人工简单细胞从而降低计算量,满足了机器人实时性的要求;进一步地,提出了一套以线段连接矩阵为核心的方法,将Gestalt理论中的一系列视觉组织律付诸于线段感知图的处理,使其中线段聚类为一系列连通子图。经过基于线段连通子图的调整,形成障碍表达的雏形。实验结果表明基于机器人仿生视皮层的障碍检测具有良好的普适性和适应性。 第四,由于移动机器人运动安全还受到侧翻的威胁。本文进一步以机器人仿生视皮层为基础提出了一种横滚角估计方法。该方法基于对人类视觉相关功能产生机制的一个推测,即对场景重力和水平方向的估计来源于对局部朝向信息的统计。利用机器人视皮层Sa层和S层信息,设计了一种迭代算法用于精确提取局部朝向,接下来通过高斯概率模型对局部朝向进行统计,最后设计了一种卷积核函数对统计曲线进行处理得到最终结果。实验表明,该方法具有良好的通用性和估计精度,甚至可用于各种图像旋转角的判断。 第五,为了估计机器人平面位姿,利用所提出的数据波相关方法可以从激光雷达数据中提取出有价值的信号突变点,并将激光数据处理成一系列首尾相连的直线段从而得以确定激光地标点。进一步提出了一种图形编码方式用于描述地标点附近的障碍物形状,通过帧间地标匹配实现了复杂未知环境中移动机器人比较精确的位姿估计与导航,适应性较好。 最后,本文提出了一种基于激光地标的环境描述与场景匹配方法,具有连通关系的地标被组织成场景句,同时提出了宽松结构链相关的概念和定理,将场景句匹配问题抽象为最优化问题。在此基础上,提出了一种环境描述方式——环境文本,以及基于环境文本的场景匹配方法。进一步地,将激光雷达场景理解和仿生视觉进行融合,实现了复杂环境下移动机器人完全自主的精确导航。在实验场地中,基于已构建的环境文本,机器人能从任意位姿出发以小于37mm的定位误差安全地到达随机给定的导航目标点,适应性较好。