1 / 258
文档名称:

遗传算法、神经算法、退火算法、模糊算法.ppt

格式:ppt   大小:2,812KB   页数:258页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

遗传算法、神经算法、退火算法、模糊算法.ppt

上传人:伊利雪糕 2022/5/4 文件大小:2.75 MB

下载得到文件列表

遗传算法、神经算法、退火算法、模糊算法.ppt

相关文档

文档介绍

文档介绍:遗传算法、神经算法、退火算法、模糊算法
计算智能
智能:在给定任务或目的下,能根据环境条件制定正确的策略和决策,并能有效地实现其目的的过程或能力。
信息:信息是用来消除观察者认识上的不确定性的度量。
智能信息处理:利用各种智能手n)
1 .2 神经网络的基本概念
常用输出函数
(1)阈值函数:
1 .2 神经网络的基本概念
(2)线性输出函数 :
1 .2 神经网络的基本概念
(3)Sigmoid函数
特性:
值域a∈(0,1)
非线性,单调性
无限次可微
|n|较小时可近似线性函数
|n|较大时可近似阈值函数
1 .2 神经网络的基本概念
人工神经网络的拓扑结构
(1)前向网络:
1 .2 神经网络的基本概念
层次划分
信号只被允许从较低层流向较高层。
层号确定层的高低:层号较小者,层次较低,层号较大者,层次较高。
输入层:被记作第0层。该层负责接收来自网络外部的信息
1 .2 神经网络的基本概念
第j层:第j-1层的直接后继层(j>0),它直接接受第j-1层的输出。
输出层:它是网络的最后一层,具有该网络的最大层号,负责输出网络的计算结果。
隐藏层:除输入层和输出层以外的其它各层叫隐藏层。隐藏层不直接接受外界的信号,也不直接向外界发送信号
1 .2 神经网络的基本概念
约定 :
输出层的层号为该网络的层数:n层网络,或n级网络。
第j-1层到第j层的联接矩阵为第j层联接矩阵,输出层对应的矩阵叫输出层联接矩阵。今后,在需要的时候,一般我们用W(j)表示第j层矩阵
1 .2 神经网络的基本概念
(2)反馈互连网络
1 .2 神经网络的基本概念
如果将输出信号反馈到输入端,就可构成一个多层的循环网络。
输入的原始信号被逐步地“加强”、被“修复”。
大脑的短期记忆特征——看到的东西不是一下子就从脑海里消失的。
稳定:反馈信号会引起网络输出的不断变化。我们希望这种变化逐渐减小,并且最后能消失。当变化最后消失时,网络达到了平衡状态。如果这种变化不能消失,则称该网络是不稳定的。
人工神经网络的训练
人工神经网络最具有吸引力的特点是它的学****能力。
人工神经网络的学****过程就是对它的训练过程。
有导师学****无导师学****br/> 人工神经网络的训练
有导师学****br/> 有导师学****Supervised Learning)与有导师训练(Supervised Training)相对应。
输入向量与其对应的输出向量构成一个“训练对”。
有导师学****的训练算法的主要步骤包括:
1)  从样本集合中取一个样本(Xi,Yi);
2)  计算出网络的实际输出O;
3)  求D=Yi-O;
4)  根据D调整权矩阵W;
5) 对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。
人工神经网络的训练
Wij(t+1)=Wij(t)+∆ Wij(t)
∆ Wij(t)=αδjxi(t)
δj=yj- oj(t)
人工神经网络的训练
无导师学****br/>Hebb学****律、竞争与协同(Competitive and Cooperative)学****随机联接系统(Randomly Connected Learning)等。
Hebb算法[D. O. Hebb在1961年]的核心:
当两个神经元同时处于激发状态时被加强,否则被减弱。
数学表达式表示:
Wij(t+1)=Wij(t)+αxi(t)oj(t)
人工神经网络的训练
存储与映射
CAM方式(Content Addressable Memory)内容寻址方式是将数据映射到地址。
  AM方式(Associative Memory)相联存储方式是将数据映射到数据。
在学****训练期间,人工神经网络以CAM方式工作;权矩阵又被称为网络的长期存储。
网络在正常工作阶段是以AM方式工作的;神经元的状态表示的模式为短期存储。
感知器
McCulloch 和Pitts 1943年,发表第一个系统的ANN研究——阈值加权和(M-P)数学模型。
感知器
感知器的学****是有导师学****br/> 基本思想:逐步地将样本集中的样本输入到网络中,根据输出结果和理想输出之间的差别来调整网络中的权矩阵
感知器
感知器训练算法
样本集:{(X,Y)|Y为输入向量X对应的输出}
输入向量:X=(x1,x2,…,xn)
理想输出向量:Y=(y1,y2,…,ym)
激活函数:F
权矩阵W=(wij)
实际输出向量:O=(o1