1 / 22
文档名称:

BP神经网络的基本原理 很清楚.doc

格式:doc   大小:181KB   页数:22页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

BP神经网络的基本原理 很清楚.doc

上传人:镜花流水 2019/3/21 文件大小:181 KB

下载得到文件列表

BP神经网络的基本原理 很清楚.doc

相关文档

文档介绍

文档介绍:(BackPropagation)lelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学****和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学****规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidelayer)和输出层(outputlayer)()。(节点),它只模仿了生物神经元所具有的三个最基本也是最重要的功能:加权、求和与转移。其中x1、x2…xi…xn分别代表来自神经元1、2…i…n的输入;wj1、wj2…wji…wjn则分别表示神经元1、2…i…n与第j个神经元的连接强度,即权值;bj为阈值;f(·)为传递函数;yj为第j个神经元的输出。袃第j个神经元的净输入值为:芁                ()艿肄蚂莁其中:    莆若视,,即令及包括及,则螆  莁于是节点j的净输入可表示为:蒁                    ()螇   净输入通过传递函数(TransferFunction)f(·)后,便得到第j个神经元的输出:膄          ()蒄式中f(·)是单调上升函数,而且必须是有界函数,因为细胞传递的信号不可能无限增加,必有一最大值。(正向传播)和误差信号的反向传播两个过程构成。正向传播时,传播方向为输入层→隐层→输出层,每层神经元的状态只影响下一层神经元。若在输出层得不到期望的输出,则转向误差信号的反向传播流程。通过这两个过程的交替进行,在权向量空间执行误差函数梯度下降策略,动态迭代搜索一组权向量,使网络误差函数达到最小值,从而完成信息提取和记忆过程。,隐层有q个节点,输出层有m个节点,输入层与隐层之间的权值为,隐层与输出层之间的权值为,。隐层的传递函数为f1(·),输出层的传递函数为f2(·),则隐层节点的输出为(将阈值写入求和项中):蚁        k=1,2,……q             ()薈输出层节点的输出为:莃      j=1,2,……m             ()羁至此B-P网络就完成了n维空间向量对m维空间的近似映射。)    定义误差函数肅输入个学****样本,用来表示。第个样本输入到网络后得到输出(j=1,2,…m)。采用平方型误差函数,于是得到第p个样本的误差Ep:羄                    ()螁式中:为期望输出。肆对于个样本,全局误差为:袇               ()螃2)输出层权值的变化袀采用累计误差BP算法调整,使全局误差变小,即蒇          ()芅式中:—学****率薂定义误差信号为:羀                 ()袈其中第一项:羇         ()莁   第二项:肀                        ()艿是输出层传递函数的偏微分。蒅于是:莄                   ()膀由链定理得:蒆     ()***于是输出层各神经元的权值调整公式为:膃              ()芀3)隐层权值的变化袇         ()蚄定义误差信号为:袂                  ()莀其中第一项:芇         ()莆依链定理有:羄                 ()莀   第二项:蚈                        ()螄是隐层传递函数的偏微分。蚃于是:蒀               ()聿由链定理得:蒆  ()蒂从而得到隐层各神经元的权值调整公式为:蕿           ()、推导过程严谨、精度较高、通用性较好等优点,但标准BP算法存在以下缺点:收敛速度缓慢;容易陷入局部极小值;难以确定隐层数和隐层节点个数。在实际应用中,BP算法很难胜任,因此出现了很多改进算法。芁1)   利用动量法改进BP算法虿标准BP算法实质上是一种简单的最速下降静态寻优方法,在修正W(K)时,只按照第K步的负梯度方向进行修正,而没有考虑到以前积累的经验,即以前时刻的梯度方向,从而常常使学****过程发生振荡,收敛缓慢。动量法权值调整算法的具体做法是:将上一次