论文部分内容阅读
最近几年,卷积神经网络技术在许多视觉应用中都取得了成功,目前大部分成功的物体分类系统都基于深度卷积神经网络框架。对于控制计算机平台来说,近年来随着技术的不断进步,移动控制计算机在硬件配置、运算能力上不断增强,同时它还有功耗低、体积小、实时性强、性能稳定以及成本低等特点。虽然控制计算机的运算能力在不断的增强,但是卷积神经网络的网络模型和计算量也在不断的增大,并且在使用神经网络进行物体分类时需要消耗大量的内存带宽、需要进行大量的计算。受限于控制计算机有限计算能力和存储空间,这都会导致大量的能量消耗,尤其是对于那些使用电池的控制计算机,这都会让神经网络很难部署到这些控制计算机之上。所以对控制计算机在存储和计算量这两方面进行优化的需求十分迫切。 本文主要针对控制计算机的神经网络加速器平台和移动控制计算机平台,针对这两个平台在进行神经网络分类任务时的内存占用以及计算量进行优化,并取得了如下研究成果: 1.提出了一种Frequent Pattern的压缩方法,对神经网络加速器中的输入数据进行压缩,来对加速器中的输入数据存储进行优化。本方法使用FrequentPattern的方法把数据用一个更短、更合适的格式进行存储,从而达到数据压缩存储的目的。在解压缩时,通过判断压缩后数据的前缀部分来对数据补全位数,使数据恢复到数据压缩前的状态。针对神经网络加速器我们设计了用于实现Frequent Pattern的硬件结构,来对数据存储进行优化。通过使用VGG、Alexnet、Network In Network这三种网络结构对Frequent Pattern的压缩方法进行评估,实验结果表明,本方法最高可以达到7倍的压缩率,优化效果十分理想。 2.提出了一种Base-Delta的压缩方法,对神经网络加速器中的权重数据进行压缩,来对加速器中权重数据的数据量进行优化。本文在存储神经网络中权重数据的时候,使用Base-Delta的方法进行压缩处理,方法是对输入的一组数据使用K-means聚类方法进行分类得到这组数据的中心点作为这组数据的Base,再用这组数据中每一个数据分别减去自己所属的中心点的值来得到Delta,从而使数据规模进一步减小。为了达到最大压缩效果,本文还使用剪枝的方法,使数据变得更加稀疏,使用Q格式来保存数据,把权重数据使用一个合适的位数进行存储。通过使用VGG、Alexnet、Network In Network这三种网络结构对Base-Delta压缩方法进行评估,实验结果表明,本文提出的方法最高可以达到16.8倍的压缩率,平均压缩率在5倍左右,优化效果十分理想。 3.提出了一种数据量化的压缩方法,对移动控制计算机中的权重数据进行压缩,来对控制计算机中的数据量进行优化。本工作针对移动控制计算机在执行物体分类任务时存在的内存占用问题进行优化。对于Caffe框架中重排后的二维权重矩阵,本方法使用数据量化的方法对其进行压缩。对于VGG的网络结构来说,我们使用共享码书的方法进行压缩。最后为了提升压缩后模型分类的准确率,本方法分别使用部分优化和整体优化的方法,来提高压缩后网络的分类准确率。最终在压缩倍率达到11.97倍的情况下,分类的准确率值只下降了1%左右,在经过优化之后,准确率已经跟压缩前的准确率十分接近,压缩后的模型完全可以满足了一般物体分类任务的需求。