论文部分内容阅读
传统的图像分割主要是将前景中的目标从背景中分割出来,然而传统分割方法并无法应对分割复杂场景的任务。与深度学习相结合的图像语义分割,是将图像进行像素级分类并分割为表示不同语义的区域,该方法可以实现对复杂场景的分析及理解,如无人车驾驶任务,在复杂的图像中分割路况及行人等。卷积神经网络的应用促进了语义分割任务的快速发展,通过输入图像和对应的标注来训练网络使网络自主学习图像的特征并进行分割,这使得语义分割的准确度更进一步的得到了提高。因为自然图像中的目标往往具有不同的大小尺度、不同的纵横比和不同的纹理等特征,提取丰富的细节信息和上下文信息对于像素级的预测至关重要。考虑到更大的卷积核对目标的定位及分割都有促进作用,因此本文提出的网络里使用了一种基于上下文情景结构层的全卷积神经网络(Contextual Structure Based Fully Convolutional Neural Network,CS-FCNN)。网络的结构主要包含了基础网络和上下文情景结构,基础网络用于充分提取图像的特征,上下文情景结构用于提取更多的全局信息和多尺度信息,最后融合前层的细节信息、后层的全局信息和多尺度信息进行语义分割。该方法的主要贡献为:(1)改进了卷积核的实现方式,使其既增大了感受野的范围,促进全局特征的提取,又解决了增大传统卷积核带来大量参数的问题。(2)实现了多尺度特征的提取,可以有效提取局部信息和全局信息,达到分割多尺度目标的效果。实验表明,本文提出的方法在公开数据集上的实验结果比现有的一些分割算法表现更好。改进后的语义分割算法在效果上有一定的进步,但是仍然存在一些分割及边缘优化上的问题,因此本文在上述方法的基础上又提出了改进上下文情景结构的全卷积神经网络(Modified Contextual Structure Based Fully Convolutional Neural Network,MCS-FCNN)。CS-FCNN中连续使用了空洞参数相同的空洞卷积,造成了原始特征图中细节信息的丢失,于是改进了空洞卷积的组合方式,弥补了丢失的细节特征。另外,CS-FCNN中放大特征图的方法比较粗糙,于是在MCS-FCNN中使用了中间层特征图共享信息的方式恢复原始分辨率。改进后的MCS-FCNN在原来的效果上又进一步得到了提升,优化了分割的准确性和目标的边缘。在图像语义分割任务中运用卷积神经网络的方法对图像进行分割,不仅更适用于复杂的现实场景,并可以实现场景中多目标的分割问题。本文对传统的卷积神经网络进行了改进,改进之后的网络在综合考虑算法复杂度以及运行时间效率的基础上本文的算法取得了更好的实验结果。