论文部分内容阅读
移动机器人可以进入人类难以到达的危险环境中,它被广泛应用于水下、空间、核工业、排险及军事等领域。移动机器人自主视觉跟踪测控技术能够在无人控制情况下,通过机器视觉技术感知周围环境、定位目标空间位置、提取和匹配目标图像特征并实现目标跟踪,提高移动机器人自组织、自适应导航控制能力。自主视觉跟踪过程中,由于目标的遮挡、形变、光线明暗、背景干扰、快速移动等因素的阻碍,目标跟踪稳定性与实时性较差。这一难题阻碍了当前智能移动机器人在实际生活中的应用与推广,已成为许多学者们研究的焦点。本课题研究的重点是移动机器人自主视觉跟踪测控技术,根据双目立体视觉视差等相关原理,依次实现摄像机标定,特征点检测、提取和跟踪,图像特征点匹配和目标空间位置求解,最后根据以上一系列工作获取的数据完成对运动目标连续跟踪。本课题主要研究工作包括:(1)分析双目视觉模型及视差和深度的关系,研究摄像机标定技术,制作标定棋盘模型,选择介于传统标定方法和自标定方法之间的张正友棋盘标定方法对左右摄像机进行标定,通过标定实验获取了左右摄像机的内外参数、畸变系数、旋转和平移向量。(2)研究图像特征点的检测与提取技术。针对Harris角点检测算法在提取三维物体角点时存在较多伪角点的问题,提出一种改进的H-S角点检测算法。该算法运用邻域像素取差法和SUSAN算法思想,通过双重阈值的筛选从而排除伪角点的存在,通过实验的对比分析,该算法能把Harris算法中6个伪角点去除,即使在带噪点的图片上该算法能把原算法中的12个伪角点过滤掉,结果显示该改进算法在去除伪角点的有效性。其次,还研究金字塔式L-K光流跟踪算法,通过编程实现了序列图像中连续两帧图像的强角点跟踪。(3)研究基于双目视觉的图像立体匹配和目标跟踪方法,编程实现了近景匹配、尺度变化和图像旋转三种情况下SIFT特征点匹配算法的实验,通过图像匹配获取匹配点对的坐标值,根据视差原理和三维重建求得深度信息。研究基于SIFT匹配和局部特征的快速块匹配算法,通过VC++及OpenCV编程实现了运动目标连续跟踪实验,并进行了跟踪效果评价和误差分析。