1 / 47
文档名称:

神经网络建模.ppt

格式:ppt   大小:1,091KB   页数:47页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

神经网络建模.ppt

上传人:华子 2022/4/28 文件大小:1.07 MB

下载得到文件列表

神经网络建模.ppt

相关文档

文档介绍

文档介绍:神经网络建模
1、神经网络简介
人工神经网络是在现代神经科学的基础上发展起来的,旨在模拟人脑结构以及功能的一种抽象的数学模型,其中Hopfield神经网络、ART神经网络、BP神经网络是常用的网络。
Hopfield神经网络是由相同
首先用0初始化权重和偏置。为了显示增加方式的效果,先把
学****速度也设为0。
net = newlin([-1 1;-1 1],1,0,0); {1,1} = [0 0]; {1} = 0;
为了用增加方式,我们把输入和目标输出表示为以下序列:
P = {[1;2] [2;1] [2;3] [3;1]}; T = {4 5 7 7};
用增加方式训练网络:
net = newlin([-1 1;-1 1],1,0,0); {1,1} = [0 0];
{1} = 0; P = {[1;2] [2;1] [2;3] [3;1]}; T = {4 5 7 7};
[net,a,e,pf] = adapt(net,P,T);
由于学****速度为0,网络输出仍然为0,并且权重没有
被更新。错误和目标输出相等。
a = [0] [0] [0] [0] e = [4] [5] [7] [7]
,我们就能够看到当每一
组输入提交时,网络是怎么调整的了。
{1,1}.=;
{1,1}.=;
[net,a,e,pf] = adapt(net,P,T);
a = [0] [2] [] [] e = [4] [3] [] []
2、BP神经网络
、概述
BP网络是采用Widrow-Hoff学****算法和非线性可微转移函数的多层网络。一个典型的BP网络采用的是梯度下降算法,也就是Widrow-Hoff算法所规定的。backpropagation就是指的为非线性多层网络计算梯度的方法。现在有许多基本的优化算法,例如变尺度算法和牛顿算法。神经网络工具箱提供了许多这样的算法。
一个经过训练的BP网络能够根据输入给出合适的结果,虽然这个输入并没有被训练过。这个特性使得BP网络很适合采用输入/目标对进行训练,而且并不需要把所有可能的输入/目标对都训练过。为了提高网络的适用性,神经网络工具箱提供了两个特性--规则化和早期停止。
、基础 网络结构 1)常用的前馈型BP网络的转移函数有logsig,tansig有时也会用到线性函数purelin。当网络的最后一层采用曲线函数时输出被限制在一个很小的范围内,如果采用线性函数则输出可为任意值。如果需要也可以创建其他可微的转移函数。 2)在BP网络中,转移函数可求导是非常重要的,tansig、logsig和purelin都有对应的导函数dtansig、dlogsig和dpurelin。为了得到更多转移函数的导函数,可以输入 tansig(‘deriv’) ans = dtansig
网络构建和初始化
训练前馈网络的第一步是建立网络对象。
函数newff建立一个可训练的前馈网络。
net = newff(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF)
这里需要4个输入参数。
第一个参数是一个RxS1的矩阵以定义R个输入向量的最小值
和最大值。
第二个参数是一个每层神经元个数的数组。
第三个参数是包含每层用到的转移函数名称的细胞数组。
最后一个参数是用到的训练函数的名称。
例、创建一个二层网络
它的输入是两个元素的向量,第一层有四个神经元,第二层有三个神
经元。第一层的转移函数是tan-sigmoid,输出层的转移函数是linear。
输入向量的第一个元素的范围是-1到2,输入向量的第二个元素的范
围是0到5,训练函数是traingd。
net=newff([-1 2; 0 5],[4,3],{‘tansig’,‘purelin’},‘traingd’);
这个命令建立了网络对象并且初始化了网络权重和偏置,因此网络就可以进行训练了。
在训练前馈网络之前,权重和偏置必须被初始化。初始化权重和偏置的工作用命令init来实现。 net = init(net); 对前馈网络来说,有两种不同的初始化方式经常被用到:initwb和initnw。 1)initwb函数根据每一层自己的初始化参数({i,j}.initFcn)初始化权重矩阵和偏置。前馈网络的初始化权重通常设为rands,它使权重在-1到1之间随机取值