论文部分内容阅读
随着人工智能技术的发展,计算机视觉在人机交互、监控安防、军事部署等领域拥有广阔的应用前景。目标跟踪作为计算机视觉中的热点领域之一,其任务是在视频中对目标进行定位,并确定其身份信息,从而形成目标的跟踪轨迹。受实际场景中背景扰动、光照变化、目标形变、遮挡等因素影响,目标跟踪是一个极具挑战性的课题。伴随着大数据时代的来临,深度学习方法在语音处理、图像识别等领域得到了极大的发展,也为目标跟踪中的难题提供了新的解决方法。本文采用贝叶斯滤波思想,在深度学习框架下研究基于检测的目标跟踪算法,主要包括:基于递归神经网络(recurrent neural networks,RNNs)的在线目标跟踪算法和基于多特征的RNN在线多目标跟踪算法。(1)本文研究并实现了一种基于RNN的在线目标跟踪模型,它适用于单目标或多目标跟踪。先利用目标的位置信息,通过RNN预测目标在下一帧中可能的位置,再利用最新的观测值来更新网络预测值,最终确定目标的状态。对于多目标跟踪而言,在目标状态更新之前需要判断观测值属于哪一个目标,通过与目标相匹配的观测值对目标状态进行更新。本文选用匈牙利算法求解数据关联问题,通过对目标与最新观测值的距离度量构建代价矩阵,利用目标间的匹配关系来更新目标状态。实验表明,该算法在单目标和多目标场景中都有较好的跟踪结果,并且对于目标的形变和遮挡具有一定的鲁棒性。(2)为了提高跟踪算法的准确度,本文在RNN跟踪模型的基础上引入目标的视觉信息,融合目标的位置信息和外观特征,提出基于多特征的RNN在线多目标跟踪算法。采用双VGG(Siamese VGG)网络对目标外观特征进行鲁棒的表达,并计算目标与检测响应间的外观相似度;该外观相似度与位置距离结合生成更加可靠的匹配关系,由此来更新目标的状态,提升算法的跟踪性能。实验结果表明,该算法可以有效避免遮挡、目标形变、尺度变化等对跟踪结果的影响,在复杂场景中表现出较好的跟踪性能。