论文部分内容阅读
无人机目标检测是计算机视觉领域近年来兴起的重要课题之一,有着较高的学术意义和应用价值。随着无人机在工业、农业、安防和生活等各行业的普及,对无人机拍摄数据进行视觉分析的需求正在显著增加。当前的无人机目标检测解决方案,主要是将成熟的深度学习通用目标检测方法迁移至无人机场景。然而,无人机拍摄数据存在场景多变、视角变化幅度大、目标尺度多样性广等数据特点,通用目标检测方法很难在准确度和速度两方面给出满意的结果。本文分析无人机场景的数据特点后,围绕“通过场景模型给出尺度预计进而引导目标检测”这一核心思路,从场景中目标之间的透视关系出发,对无人机目标检测展开研究,主要工作包括:1)提出无人机场景透视建模方法。通过分析无人机数据,指出检测任务的核心挑战在于目标的尺度多样性。以无人机图像能反映场景结构为出发点,提出基于透视的场景建模,并实验分析了该模型对无人机场景的适用性,以及和其他尺度多样性解决方案相比的优点。所提透视估计图通过推测目标与镜头的距离、换算形变参数、生成透视标注、神经网络估计等模块,完成了对图像中目标尺度分布和置信度分布的估计。2)研究场景透视在现有目标检测框架下的利用形式。通过透视模型给出的预估计结果,从数据和框架两方面对目标检测模型的改进进行了研究,包括:利用透视引导锚点筛选、候选区域生成、区域特征选择等模块,引导图像金字塔方法的智能裁剪过程。实验结果表明,本文提出的透视模型具备有效性:对单流程框架的改动能使精度和速度出现明显提升,对裁剪类框架的改动能在精度持平的情况下,节约数倍时间开销,达到了更好的精度和速度平衡。本研究的意义在于,对无人机场景建立了通用的、可用性强的透视模型,并解决了尺度多样性这一无人机目标检测的核心难点。