论文部分内容阅读
针对传统视频火灾检测方法依靠人工经验提取火焰特征,误报率高、鲁棒性差的特点,提出一种基于深度学习的视频火焰识别方法。该方法充分利用火焰的运动特征和颜色信息,先使用改进的五帧差法和自适应混合高斯建模法进行运动目标提取;再采用RGB-HSV混合颜色空间模型筛选出图像中可能的火焰像素区域;最后将以上两个步骤结合起来进行疑似火焰区域提取,并将疑似火焰区域图像传入预训练的AlexNet卷积神经网络模型进行火与非火的精确识别。通过对多种场景下火焰视频的测试结果表明,提出的方法具有较高的召回率、准确率和较低的误报率。