论文部分内容阅读
双目立体视觉技术的原理是,利用处于特定位置的两个成像设备获取同一场景的二维图像,并从中提取场景的三维信息,其广泛应用在三维重建、虚拟现实、增强现实、自动驾驶等前沿领域。目前大部分双目立体视觉系统都是基于软件实现,虽然具有较好准确性,却不能达到实时处理的要求。因此本文设计了一款基于FPGA平台的双目立体视觉系统,将其命名为Smart-Eyes/Depth Perception,并针对自适应窗口算法设计了高能效的计算架构,基于该架构使用硬件描述语言实现了该算法。具体工作如下:1) Smart-Eyes/Depth Perception系统能够实时采集图像对,并进行本地存储和处理,而后将原始或处理后的数据传输给接收设备。系统使用两个平行配置的CMOS图像传感器进行图像采集,最大分辨率为640*480,最大帧率为30fps。系统可以基于HDMI接口进行图像数据传输和显示,并可利用控制开关切换传输内容,包括左右原始图像和处理后的视差图像。本文使用基于自适应权重算法的处理模块验证了系统的功能。系统总功耗约为4.089W,约占用93%的硬件资源。2)针对自适应窗口算法结合硬件特性设计了高能效计算架构,并根据该架构进行了硬件实现,其支持窗口大小为25*25,最大视差级数为64级。基于Middlebury提高的标准测试集进行功能仿真验证后,基于自适应窗口算法的处理模块的速率可以达到30fps,平均误点率约为13.06%,硬件资源占用率约为50.74%。本文基于FPGA平台实现了双目立体视觉系统Smart-Eyes/Depth Perception,并在保证实时性的前提下使用硬件描述语言实现了自适应窗口双目立体视觉算法,使其具有较高准确性、较大的检测范围与视差级数,在合理范围内充分利用了硬件资源,并较好的平衡了匹配准确性、系统硬件资源和处理速度。