论文部分内容阅读
在现实生活中,人们使用摄像机拍摄时,希望可以获得同一场景中所有景物都清晰的图像。但是摄像机镜头受景深的限制,无法同时聚焦所有目标,因此拍摄的照片中部分区域清晰,部分区域模糊。多聚焦图像融合技术可以将多幅同一场景下聚焦区域不同的图像融合成一幅全清晰的图像,从而有效地解决这个问题,提高图像的信息利用率。准确地识别和提取源图像中的聚焦区域是多聚焦图像融合算法中的难题,如果聚焦区域提取不完整,会导致融合结果中出现伪影及边缘轮廓丢失的现象。本文在分析了多聚焦图像特征的基础上,提出了新的多聚焦图像融合方法,主要内容和成果如下:(1)本文利用卷积神经网络在图像特征提取方面的优势,训练了一种基于Siamese网络的卷积神经网络模型,并将其应用于多聚焦图像融合。该方法将多聚焦图像融合过程中决策图的生成看成是二分类问题,首先用训练好的卷积神经网络模型区分源图像中的聚焦像素和模糊像素,得到初始权重图;然后通过像素插值和形态学处理对权重图进行优化,得到融合决策图。实验结果表明,该方法可以提高聚焦区域和非聚焦区域检测的准确性。(2)本文提出一种基于鲁棒主成分分析和卷积神经网络的多聚焦图像融合方法,以进一步准确区分聚焦和非聚焦区域的边界,改善融合结果中存在伪影的问题。该方法首先利用鲁棒主成分分析算法分解源图像,得到低秩和稀疏分量;其次,借助卷积神经网络构建低秩分量的融合决策图,用改进拉普拉斯能量和与引导滤波融合稀疏分量。实验结果表明,所提方法使融合结果更好地保留源图像中的纹理细节,避免伪影的产生,提高了融合图像的质量。