论文部分内容阅读
红外和微光图像彩色融合可以获得包含二者信息的彩色融合图像,从而增加观察者对于场景的全面感知。但是在远距离红外与微光图像融合中,由于目标不明显,如果对融合图像进行目标提取,会丢失一部分背景信息,这对于场景的感知将造成较大的干扰。针对这一问题,本文探索研究了一种基于视觉感知的红外和微光图像彩色融合方法,将视觉目标类别("what")信息提取和并行处理机制应用于传统彩色夜视中,实现高效典型目标学习的红外和微光图像彩色融合。本文研究了一种基于感兴趣区域分水岭分割以及BP神经网络的典型目标识别方法,以进行"what"信息感知:在训练阶段,对红外图像中的目标和背景分别从图像的颜色、梯度、矩和纹理四个方面进行特征描述,并运用BP神经网络对样本点的特征进行有监督的训练,从而得到能够区分目标和背景的网络模型;在目标识别阶段,对待识别的图像进行感兴趣区域分水岭分割,并对各个分割区域的测试点实施BP神经网络学习,获得各分割区域的目标属性,既保证了目标识别的准确率,又大大缩短了识别时间。本文还研究了一种基于视觉并行处理机制的典型目标彩色融合方法,该方法首先并行进行目标识别和场景融合,再将识别出的目标区域与场景进行二次融合,最终实现凸显目标的彩色夜视输出。为了验证基于视觉感知的彩色夜视方法的有效性,本文搭建了基于DM642的双光谱图像融合夜视系统,并进行图像采集、融合实验。实验结果表明,运用本文方法获得的彩色融合图像不仅提高了目标的发现率,而且保留了丰富自然的背景信息。