论文部分内容阅读
视频监控系统作为计算机视觉技术的典型应用之一,现已被广泛应用于道路安全、公共安防等民用与军事领域。针对复杂场景下的行人多目标检测与在线跟踪是智能视频监控领域具有迫切需求与重要意义的研究方向。为实现视频监控中准确、快速的行人多目标检测与跟踪算法,本文针对目标检测、运动估计、数据关联与表观建模各模块的算法进行了深入研究与分析,并提出改进优化,形成完整的行人多目标跟踪系统设计。针对该系统,本文主要完成了以下几个方面的工作:首先,本文设计并实现了高密度复杂场景下多尺度行人目标的检测算法,分析了目前常用行人目标检测算法存在的不足。结合应用场景需求,本文采用兼顾检测精度与速度的YOLOv3(You Only Look Once)框架进行目标检测,以全卷积残差网为基础构建特征金字塔网络,融合多层特征分组对多尺度目标进行检测。为了进一步降低漏检与虚警,并提高目标检测精度,本文针对目标先验框进行聚类优化。实验结果表明基于特征金字塔网络的YOLOv3在兼顾召回率和精确率的同时,能够达到较快的运行速度,先验框的聚类优化进一步提升了行人目标的检测性能。然后,基于行人检测结果,利用Kalman滤波器对目标的运动及尺度状态进行估计与预测,针对由检测器误检、漏检及运动状态估计等带来的不确定性问题,采用匈牙利算法对检测结果与轨迹目标进行数据关联。当采用传统的目标中心位置间欧式距离度量构建关联成本矩阵时,存在对目标尺度敏感、阈值设定灵活性差的问题,本文提出基于状态预测与观测间马氏距离度量设定跟踪门,缩小匹配范围,采用边界框交并比构建关联成本矩阵的方法,实验结果表明其有效提高了多目标跟踪的准确度与稳定性。最后,针对跟踪过程中由于目标交互与遮挡造成的目标误匹配、身份频繁变换的问题,本文结合行人再识别中表观建模的基本思想,对传统softmax分类器进行了适用于余弦相似度的优化,实现行人目标深度表观特征的提取与有效匹配,并提出一种融合表观特征相似度与空间相似度的多目标跟踪算法,有效降低误匹配、身份交换的次数。并针对多目标跟踪领域特征有效更新机制的缺失,提出了一种带目标间遮挡判断的稀疏更新机制,有效防止目标间遮挡情况下的跟踪漂移,实验结果验证了融合表观特征与空间信息的多目标跟踪方法的有效性。