论文部分内容阅读
变分自编码机(VAE:Variational Auto-Encoder)于近年来受到了广泛关注,并且在理论分析和应用拓展层面都有了诸多研究进展,但VAE退化问题仍然是该领域中存在的一个研究瓶颈。退化现象在深度模型中,广义上是指当模型加强后,其训练和表现能力并没有得到加强,反倒出现削弱的现象,而在VAE的编码过程和解码过程中,退化则表现为编码器或者解码器其中一方加强,而另一方表现变弱,这极大的破坏了VAE当中编码和解码的关联;隐变量表征学习与似然估计之间的博弈则是退化现象的本质问题,即VAE难以同时保证隐变量中表征学习的质量和生成的质量。尽管这些问题已经在该领域中有了长期的探索,并且有很多对应的VAE变种模型来完成不同场景下的任务,但由于很少有研究对退化现象和博弈问题进行原理上的分析,这些模型往往仅适用于其论文中描述的应用场景,而很难应用到其他领域中。本文从信息论的角度出发,由现象到本质地理解分析VAE中的博弈问题,从而提出足够广义的解决方案。为了研究退化现象是如何产生的,我们对VAE中编码器和解码器的中间隐层进行了建模,并用费雪信息(Fisher Information)解释其中的信息传输过程,证明了在编码和解码网络中信息丢失是不可避免的,并且信息丢失会随着网络结构的加深而更加严重,从而导致VAE的退化。针对信息丢失,我们证明跳跃连接(Skip Connection)可以在不改变模型结构和目标函数的情况下为VAE提供额外的信息流,从而在信息丢失的地方将之前隐层中所含的信息补充进来。由此,我们提出了一个在VAE中加入跳跃链接的改进模型,这类配备了跳跃连接的VAE模型在文中被称为SCVAE(Skip Connection Variational Auto-Encoder)。经过实验,我们证明了SCVAE在信息保存和避免退化的有效性,同时,该方法也体现出了与其他方法的兼容性,能够在当前一些具有代表性的VAE模型上继续提升模型的表现。我们还证明了VAE中的表征学习和对数似然估计本质上与费雪信息和香农信息(Shannon Information)两个信息量相关,由此我们提出在Fisher-Shannon平面中研究VAE,以观察这两种信息量对VAE的影响。我们的研究表明费雪信息更有助于数据拟合,使得模型能更细粒度的完成表征学习和生成任务;而香农信息更有助于数据总结,使模型能提取高层抽象信息并保留泛化能力。通过费雪信息和香农信息之间的博弈原理,我们说明了在VAE中表征学习和对数似然估计的博弈是天然存在的,但是可以通过对两种信息量的调节,控制博弈的平衡点。对此我们提出了一种VAE的变体,称为Fisher自编码机(FAE:Fisher Auto-Encoder),用于根据实际需要平衡费雪信息和香农信息。通过实验,FAE有效地利用费雪信息更好的拟合数据分布,从而完成高质量的生成和高质量的表征学习;或者更好的提高模型的泛化能力,避免模型的过拟合等问题。