论文部分内容阅读
多视图重建是计算机视觉领域的一个基本问题,有着广泛的应用前景。本文研究的问题是如何高效率的实现大规模的多视图重建,随着输入视图数量的增多,完成重建所需要的计算量和时间会快速增长。经过理论分析和实验证明,一个大规模的多视图重建系统的性能瓶颈主要在于如下的两个环节:(1)特征的提取与匹配;(2)多视图几何约束关系的计算。作为多视图重建的开始,首先需要对输入的每幅视图提取特征点,随后再在两两视图之间计算特征匹配;这一步骤所需的计算量会随着输入视图的增加呈平方等级的增长。另外多视图几何约束关系也是需要在两两视图之间计算,因此随着输入视图数的增多,这一步骤的计算量也会快速增长;如何在追求高效的同时兼顾算法的精度与鲁棒性,也是本文需要考虑的问题。特征提取方面,提出了一种适合图形处理器(GPU)加速计算的并行尺度不变特征变换(SIFT)算法;针对SIFT算法的各个步骤进行了详细的复杂度分析和并行化处理。实验证明,本文算法在640×480的图像分辨率下每秒完成28帧图像的特征提取,在不影响算法精度的前提下相比CPU算法加速比超过了30倍,相比现有的GPU算法加速比达到了1.5倍以上。特征匹配方面,提出了一种基于局部敏感哈希(LSH)的多视图特征匹配方法;不同于现有算法基于两两视图间局部匹配的策略,本文算法基于数据库索引的思想提出了一种全局匹配算法;并针对SIFT特征描述子的数据特性,使用超球面划分和随机K维查找树划分对LSH算法进行了改进。实验证明,本文算法在降低匹配精度9%到20%的情况下相对线性算法速度提升到了2.9至7.8倍。多视图几何约束关系计算方面,提出了一种新算法LO-MLESAC;通过在随机抽样一致的策略中加入局部优化和最大似然估计,实现了基础矩阵的快速高精度的计算。另外,在多视图两两关系计算中,通过对循环次数和运行时间的限制,快速去除了匹配度低的视图对。实验证明,本文算法在输出局内点点数减少不超过5%的基础上算法速度提升到了原有算法的2.4到3.1倍。