论文部分内容阅读
视觉关注区域检测是依靠计算机视觉构建合理的模型,模拟人类的视觉注意机制,快速且高效的检测出图像中关注区域的技术,在医疗仪器、军事侦察、智能机器人等领域起到了十分关键的作用。优秀的视觉显著性模型能够为视觉关注区域检测提供更好的检测精度并且对于不同的视频场景具有较高的鲁棒性。大量的神经心理学研究表明,视觉关注区域检测模型的构建有两种不同的方向:无先验信息,独立于特定任务的自下而上的检测方法和基于先验信息,针对特定目标的自上而下的检测方法。本文关注于自下而上的视觉显著性检测模型,对现有的视频显著性检测模型进行综合比较,特别对各算法的不足之处加以分析,提出了基于视频图像帧对应动态矢量图序列的时域滤波显著性检测算法以及基于视频图像帧静态显著信息和动态显著信息融合的显著性检测算法。本文的研究成果以及主要工作包括:1.对于物体运动随机性较强或者具有剧烈运动场景的视频,由于各图像帧之间的像素变化并不呈现相似的规律性,基于时域的光流显著性检测算法得到的显著区域检测结果精度较差。本文通过分析图像帧对应的运动矢量图序列的像素灰度值分布区间,保留与显著性相关的像素灰度值,排除由于无关背景运动产生的估计误差干扰,从而有效的提高了视频显著区域检测的精确度。2.对于能够引起人类视觉关注的显著运动强度远低于其他与视觉关注无关的背景运动的视频,由于视频的显著区域主要由静态显著信息定位,单纯基于时域的显著性检测算法效果较差,而现有的时-空域视频显著区域检测模型对于不同的视频场景检测效果差异较大。针对这种情况,本文提出了基于像素差值的动态权值显著图融合方法,综合考虑图像帧每一位置处静态显著性和动态显著性对最终显著性的贡献,通过像素灰度值的差值以及最大灰度值综合计算相应的权值,有效的减少了由于静态/动态显著图计算误差带来的影响,提高了对包含不同场景的视频序列显著性检测算法的鲁棒性。3.本文采用USCD背景差分数据库作为算法的评价标准,该数据库包含18个不同场景下的运动物体图像序列,以及相应的每一帧ground-truth基准数据。通过对该数据库中的测试图像序列分别应用现有算法和本文提出的改进算法,将检测结果进行对比并与ground-truth基准数据进行比较,证明了本文提出算法的有效性以及鲁棒性。