论文部分内容阅读
本文主要讨论了关于BP神经网络训练算法的一些问题。第一章介绍人类脑神经系统神经元的生物模型,对神经元的工作原理进行阐述,列举神经元的主要特点。基于对人脑神经系统的仿真,人们用计算机研发出了人工神经网络。人工神经网络是模仿人脑神经系统对信息的传递和反射来获取事物特征的信息处理系统,是人脑及其活动的一个理论化的数学模型。人工神经网络是以神经元为工作单位,神经元把从其他神经元传来的输入信息通加权作用到激活函数产生输出信息传递给下一个神经元。人工神经网络继承了脑神经系统的优良的性能,具有自学性、并行性、鲁棒性和非线性等特点。常用的神经网络模型有前馈神经网络、反馈神经网络、相互结合型神经网络。由于前馈神经网络应用范围广,人们对于前馈神经网络的研究从未间断。BP网络在前馈神经网络中占有重要地位,因此人们对于BP网络算法的改进和完善大大加快了人工神经网络的发展。第二章介绍了BP神经网络及其算法。BP网络也称误差反向传递网络,是目前应用最广的人工神经网络模型之一,它是通过学习和训练反映出输入数据与输出数据之间的映射关系。BP神经网络的基本学习方法是基于梯度下降法的传统BP算法。通过反向传递误差来调整神经网络的权值,最后使网络的误差函数最小。针对传统的BP算法有训练时间长、训练速率慢、容易陷入局部极小值等缺点,文章介绍了一些的BP网络训练的改进算法。第三章介绍了神经网络的一些训练方法。变学习速率法通过改变学习速率来加快训练过程向极小值的收敛;加入动量项方法是在训练过程中把每个权值的修正量加上一定比例的上一次权值的修正量,从而加快了学习的收敛速率,也有效的避免了网络陷入局部极小值.弹性BP法是应用误差函数对网络权值的偏导来修正网络权值,有效的减少了计算量,加快了网络的收敛。FR共轭梯度法和PRP共轭梯度法的在精确的线性搜索下具有全局收敛性,避免网络陷入局部极小值。Leveflherg-Marquardt算法实质上是梯度下降法和牛顿法的结合算法,在求解非线性问题中比传统的BP及其它改进算法迭代次数更少、收敛更快,精确度更高遗传算法是借鉴生物界适者生存,优胜劣汰的进化规律的一类随机搜索方法,通过对初始问题的编码、选择、交叉、变异等过程选择出最优个体,拥有很好的并行性和全局寻优能力。融合了遗传算法的全局寻优能力和Leveflherg-Marquardt算法的快速收敛的特性,文章给出一种混合算法GALM算法。最后一章通过数值实验比较了几种训练BP网络算法的优劣,证明混合算法在处理一些非线性的函数优化问题是可行有效的。