论文部分内容阅读
随着公共安全受到社会大众越来越多的关注,视频监控系统正在人们的生活中逐渐普及。目前,一般的公共安全监控系统采取在监控区域布设大量摄像头设备的方案,从而实现对大范围区域的监控。通常这些摄像头是离散的,并且拍摄的监控信息缺乏快速完善的整合机制,导致视频信息的处理仅基于图像,最终未能有效结合视频监控系统的空间位置信息。在实际应用中,除了对监控区域十分熟悉且经验丰富的工作人员,普通人难以直接从大量监视器的图像信息中获取目标的位置信息以实现高效监控,尤其在处理突发事件时,可能因为判断延迟而导致重大事故的发生。针对目前视频监控系统存在的不足,本文基于摄影测量学、GIS以及深度学习等理论方法,重点关注目标检测、目标定位以及多摄像头协同追踪三个方面提出改进方案,实现在多摄像头视频监控场景下的目标检测与跟踪。主要研究内容及结论如下:(1)构建视频监控系统空间数据模型。总结视频监控环境中包含的空间数据类型并构建空间数据模型,实现视频场景的空间化,是GIS与视频监控集成的基础。(2)探索监控视频图像与平面地理空间的映射关系。基于摄影测量学、计算机视觉的理论方法,融合两个领域的相机模型,得到基于固定地理空间高程(5_?的映射模型,经过实测和相机标定获取相机内外参数,为监控系统包含的摄像头构建映射模型,完成图像信息与地理空间信息的关联。(3)基于深度学习方法的目标检测。针对样本源为视频的特殊性,本研究创新开发了一种基于视频的标注工具,构建用于模型训练的标准数据集;利用训练的Faster R-CNN目标检测模型,实现对特定目标的检测,并获取表征目标位置的像素坐标信息,结合(2)构建的图像与平面地理空间的映射模型计算获得目标在真实监控场景的位置,即实现目标定位。(4)多摄像头协同目标跟踪。本文提出一种新的基于位置和视觉特征的多摄像头协同目标跟踪的方法,筛选空间位置和拍摄视角最佳的摄像头来承担目标跟踪任务,实现多摄像头间的目标交接工作。最后,本文通过实验分别验证坐标映射模型和目标检测模型是否精确可靠,并将改进的多摄像头协同目标追踪方法应用到“轨迹地图的生成”和“异常事件的处理”两个实验中进行验证。实验结果表明:(1)图像未进行畸变校正计算的样本点均方根误差(RMSE)范围在4.75-7.04之间,平均绝对误差(MAE)在4.22cm-6.44cm之间;畸变校正后计算的RMSE范围在2.11-3.35之间,MAE保持在3cm以内。实验说明图像畸变校正能有效提高目标定位精度。(2)采用的Faster R-CNN目标检测方法的平均精度均值(mAP)达到90%,检测单帧图片速度达到0.08秒,达到几近实时的效果。(3)在“生成轨迹地图”和“处理异常事件”两个实验中,结果显示目标在横跨多摄像头视域后映射的定位坐标未发生突变等异常现象,符合目标真实的移动情况。以上实验证明了本文提出的多摄像头协同目标跟踪方法高效且可靠性强。