论文部分内容阅读
随着计算机技术的迅猛发展,产生了海量的图像数据,对这些数据进行正确的分类,不仅为数据查询提供了方便还能提高有效信息的获取效率,从而为计算机视觉领域的研究做好准备。因此,研究一种高效准确的图像识别技术十分重要。目前的图像识别技术主要有传统图像识别技术和深度学习图像识别技术。与传统的图像识别技术相比,深度卷积网络可以根据分类任务自适应地提取到局部和全局的图像特征,有很好的识别性能。但是,基于深度卷积网络的图像识别方法需要大量的数据进行训练,训练样本不足,会导致图像识别效果的降低。困难样本是模型容易识别错误,但是也含有边界信息的样本,对模型训练有指导作用。因此,如何解决训练样本不足以及困难样本缺少是一个值得深入研究的问题。为了解决上述问题,本文在条件生成对抗网络和深度卷积生成对抗网络的基础上,结合Focal Loss损失函数建立了基于Focal Loss条件深度卷积生成对抗网络的在线图像识别模型,简称F-CDCGAN模型。具体如下:(1)生成对抗网络(Generative Adversarial Networks,GAN)自带的分类器为二分类器,不能用于多类图像的识别任务。本文提出的F-CDCGAN模型,在条件生成对抗网络和深度卷积生成对抗网络的基础上,构建了能够生成样本数据的生成网络和判别真伪的判别网络,同时增加了一个判别类别的分类网络,可以用于多分类任务;(2)F-CDCGAN模型将生成网络生成的图像数据与真实样本一起输入到判别网络和分类网络中,可以解决训练样本不足的问题;(3)受Boosting想法的启发,F-CDCGAN模型引入了Focal Loss损失函数,增加了易分类错误的困难样本在模型训练过程中的权重,增强了易分类错误样本对模型优化方向的指导作用,从而提高了模型训练的效率。本文使用F-CDCGAN模型在MNIST数据集和Fashion-MNIST数据集上进行了实验。为了证明F-CDCGAN模型的优势,还建立了与F-CDCGAN模型分类器结构相同的CNN模型进行对比,同时也与其他经典的图像识别方法进行了比较。两个数据集上的实验结果都表明本文提出的F-CDCGAN模型性能更优。