论文部分内容阅读
针对传统视频摘要方法处理大场景监控视频时面临的目标辨识度低下、处理速度慢等问题,提出一种大场景监控视频实时智能摘要系统。该系统通过对场景目标进行实时地运动检测和跟踪,获取目标的大场景运动信息;通过对目标轨迹进行分析,控制摄像机运动,获取目标的近距离高清特写;最终形成具有高目标辨识度的多粒度视频摘要。 针对传统混合高斯前景检测算法运算量偏大问题,提出一种基于双重背景模型的空间约束混合高斯前景检测算法,并进行实验分析。通过快速初始化缩短模型的初始建立过程,提高摘要系统初始运行或断电重启后的响应速度;采用双重背景模型机制,以自适应背景减法的前景检测结果作为混合高斯前景检测的空间约束条件,降低模型在背景区域的冗余运算;运用多策略自适应模型更新,提高前景检测的准确性。实验表明,与GMM、CodeBook、GMG、ViBe、MODGMM等算法相比,本文的前景检测方法具有4倍以上的处理速度和更好的检测准确度。 结合前景检测的结果,在保证摘要系统实时性的基础上,提出一种基于关联矩阵的Camshift目标跟踪方法,并进行实验分析。通过建立关联矩阵,对场景中的目标状态进行描述;针对不同的目标状态采用对应的目标跟踪策略,当目标未发生交互时,仅使用关联矩阵对目标进行跟踪,当目标发生交互后,首先使用Camshift进行目标识别然后重新使用关联矩阵对目标进行跟踪。实验表明,本文的目标跟踪方法在大场景摘要系统中具有良好的性能表现。 提出基于目标抓拍的多粒度视频摘要方法,预测目标在摄像机运动时的运动轨迹,进而控制摄像机进行目标的高清抓拍,最终得到包含目标场景运动信息和目标高清特写的多粒度视频摘要。解决摘要系统实现过程中所面临的数据传输、参数预设、自定义监控区域等工程问题,完成摘要系统的实现。