论文部分内容阅读
双目立体视觉由于直接模拟人类双眼视觉的生理结构,它是三维场景下深度信息提取的重要技术手段,近年来,随着立体匹配算法研究的深入以及FPGA、 ASIC等硬件技术的发展,其广泛运用于机器人导航、无人机定位以及三维测量中。立体视觉中的关键技术难点在于立体匹配,本文重点研究了如何提高立体匹配的准确率以及基于硬件平台的稠密视差计算,主要研究内容包括:在研究了立体视觉中传统的局部立体匹配——自适应支撑权重(ASW)算法的基础上,提出了一种基于颜色内相关和自适应支撑权重的立体匹配算法。为了反映像素点间的微小差异,设计了像素点的自定义颜色内相关特征描述,并结合颜色相似性、欧式距离相似性重新定义了自适应权重的匹配代价关系;在代价聚合中,对匹配点先进行改进的rank变换,再进行初始视差值计算,从而消除光照和噪声对匹配结果的影响;最后通过多步视差优化来进一步提高匹配结果的准确率。实验结果表明,该方法比传统的ASW算法具有更高的匹配准确率。基于特征点的立体匹配算法研究中,关键技术的难点在于图像特征点的提取和定位,以红蓝彩色圆盘作为靶标,提出了一种新型的快速角点检测算子,通过对彩色圆盘进行颜色分离,获得具有强对比度和对称性的灰度图像;利用新型对称算子计算出每个点的响应值,获得具有独特性和强鲁棒性的特征点,最后通过MATLAB软件仿真和基于FPGA的硬件平台实现,证明了该方法易于硬件化实现,对特征角点提取的准确性高、抗造性能好且计算速度较快。针对局部立体匹配算法在PC端上难以实时处理的问题,设计了以FPGA为核心处理器的实时稠密视差计算的硬件处理平台,包括双目视频流的采集,图像的极线矫正,局部区域立体匹配,视差值的计算、优化及VGA显示,根据FPGA内部的并行流水线技术和数学上的积分图思想,提出了两种新的方法来实现快速的SAD匹配和简化的ASW匹配,最后通过对真实场景的测试仿真,证明了该方法能够减少匹配算法对FPGA硬件资源的消耗,同时获得实时、准确的稠密视差结果。