论文部分内容阅读
双目立体视觉是计算机视觉领域的重要研究课题之一。双目立体视觉是模仿人眼的成像,以及人类视觉的距离感知过程,利用具有确定相对位置的双目摄像头对目标场景进行拍摄,并最终根据拍摄到的双目图像计算其三维信息。双目立体视觉系统一般包括图像获取、摄像机标定、极线矫正、立体匹配、深度图恢复这五大部分。与其他的三维信息获取方法相比,双目立体视觉具有结构简单、成本较低的优点,因而在机器人自主导航、工件深度测量等领域有重要的应用价值。但是,双目立体视觉系统所涉及的立体匹配算法一般计算比较复杂,使用传统的通用处理器如(CPU)无法很好的满足算法实时性的需求。利用双目立体视觉获取场景中深度信息,是利用双目摄像头拍摄的单帧图像之间的空间对应关系,恢复场景中的深度信息。为了更好的满足实时性要求,本设计选择局部立体匹配算法中的区域匹配算法进行立体匹配。经过测试集仿真验证,该算法可以得到正确的视差图。本文针对实际应用立体匹配算法中的实时性需求,利用Zynq-7000SoC(现场可编程门阵列与双核ARM)作为硬件实现平台,综合考虑软件算法和硬件实现,主要使用高层次综合工具实现高性能的双目立体视觉系统,并验证使用本文算法及现场可编程门阵列的实时性及可靠性。最终实现了双目图像分辨率为640*480,帧率为30fps的实时采集、矫正、立体匹配,并将获取的视差图结果转为HDMI接口输出的实时输出。系统总功耗约为4W,约占用了 90%的可编程逻辑硬件资源,相比双核ARM处理器实现效率提升了约50倍,验证了可编程逻辑的算法加速能力。