论文部分内容阅读
火灾是一种严重的自然灾害,及早地检测并预防火灾的发生对保护人民生命财产,社会经济和自然资源等都具有重要意义,这是一项理论与实际研究价值兼具的研究课题。近年来,随着监控摄像机的普及和图像处理技术的不断发展,基于计算机视觉的火灾检测算法得到了广泛的研究与应用。但目前基于计算机视觉的火灾检测算法普遍存在对不同环境适应性差的问题。本文针对现有的基于计算机视觉的火灾检测算法存在的问题展开深入研究:首先,为了充分利用不同火焰特征间的互补性和火焰特征与不同分类器间的适应性,本文分别对火焰的多种特征和特征与分类器间的关系进行测试,即先对火焰的多种静态和动态特征进行测试,并选择其测试结果间互补性较强的三种特征,分别是颜色、纹理和形状变化特征;再将三种特征分别与不同的分类器进行测试,分类器包括支持向量机、最近邻、决策树和随机森林,通过测试发现不同分类器对相同火焰特征的识别结果不同,故得出特征与不同分类器间具有不同的适应性。其次,根据上述结论,不同特征具有互补性和特征与分类器间存在不同的适应性,提出了一种基于改进DS证据理论多特征多分类器融合的火灾检测算法。该算法先利用背景分割器K-Nearest获取候选火焰区域,并对该区域进行颜色、纹理以及形状变化三种特征的提取;再将三种特征分别依次输入支持向量机,最近邻,决策树和随机森林四种分类器进行分类,并将每种特征所对应的四种分类结果利用改进DS证据理论进行融合;最后将三种特征的融合结果再次融合得到最终结果。该算法是一种高水平的决策级融合手段,充分利用了不同分类器识别结果间的互补性,使其满足了对不同场景变化下火灾检测的有效性和稳定性,并能够保证检测的准确性。最后,基于深度学习的火焰检测算法存在因模型复杂对硬件设备要求高和计算量大的问题,本文提出了一种基于深度可分离卷积与YOLOv3结合的火灾检测算法。该算法先利用深度可分离卷积神经网络进行火灾图像分类,深度可分离卷积神经网络能够在保证检测精度的前提下大量节省检测时间;再将分类结果是火灾的图像利用YOLOv3的目标位置回归功能进行火灾位置检测,避免了直接利用YOLOv3同时进行分类及位置回归会导致检测精度无法保证的问题。该算法相比于传统的基于视频的火灾检测方法,火灾检测的准确率大幅度提升,相比于一些标准的深度学习网络模型,对硬件无特殊要求,大幅度降低了计算量以及参数量,其检测速率以及检测准确率均有显著提高。