文档介绍:会计学
1
感知器网络
通常考虑某一神经元要受到其他神经元的作用,因而总是以n个神经元相互连接形成神元计算模型。一个神经元具备相应的输入和输出。但是神经元自身的状态,决定其输出的有无,即每一个神经元从其他n-1个神经元接受信息,产生神经兴奋和冲动。在其他条件不变的情况下,不论何种刺激,只要达到阈值以上就能产生一个动作电位,并以最快速度作非衰减的等幅传递输出。一旦输人的总和小于阈值,神经元处于抑制状态,没有被激励,也就没有任何输出产生。
第1页/共33页
对n个互连的神经元中的第i个神经元,外界输入的总和影响其激励值。i神经元的状态以某种函数形式输出,即有:
wji——代表神经元i与神经元j之间的连接强度(模拟生物神经元之间突触连接强度),称之为连接权;
ui——代表神经元i的活跃值,即神经元状态;
vj——代表神经元j的输出,即是神经元i的一个输入;
θi——代表神经元i的阈值。
函数f表达了神经元的输入输出特性。在MP模型中,f定义为阶跃函数:
第2页/共33页
如果把阈值θi看作为一个特殊的权值,则改写为
为用连续型的函数表达神经元的非线性变换能力,常采用s型函数:
M-P模型在发表时并没有结出一个学****算法来调整神经元之间的连接权。但是可以根据需要,采用一些常见的算法来调整神经元连接权,以达到学****目的,Hebb学****规则就是一个常见学****算法。
Hebb学****规则:神经网络具有学****功能,对于人工神经网络而言,这种学****归结为神经元连接权的变化。调整wji的原则为:若第i和第j个神经元同时处于兴奋状态,则它们之间的连接应当加强,即:
第3页/共33页
简单感知器
感知器是一种早期的神经网络模型,。由于在感知器中第一次引入了学****的概念,使人脑所具备的学****功能在基于符号处理的数学模型中得到了一定程度的模拟,所以引起了广泛的关注。
简单感知器模型实际上仍然是M-P模型的结构,但是它通过采用有监督学****来逐步增强模式划分的能力,达到学****的目的。
感知器处理单元对n个输入进行加权和操作,即:
第4页/共33页
感知器在形式上与M-P模型差不多,它们之间的区别在于神经元间连接权的变化。感知器的连接权定义为可变的,这样感知器就被赋予了学****的特性。
第5页/共33页
感知器的学****是有监督学****感知器的训练算法的基本原理来源于著名的Hebb学****律,其基本思想是:逐步地将样本集中的样本输入到网络中,根据输出结果和理想输出之间的差别来调整网络中的权矩阵。
设W为网络的权向量,X为输入向量
网络的训练样本集为
第6页/共33页
一、离散单输出感知器训练算法:
;
,直到训练完成:
对样本集中的每一个样本X
(1)输入X;
(2)计算O=F(XW);
(3)如果输出不正确,则
当O=0时,取W=W+X
当O=1时,取W=W-X
上述算法中,当O=0时,按W+X修改权向量W。这是因为,理想输出本来应该是1,但现在却是0,所以相应的权应该增加,而且是增加对该样本的实际输出真正方贡献的权。当O=1时恰好相反。
感知器学****算法
第7页/共33页
二、离散多输出感知器训练算法:
;
,直到训练完成:
对样本集中的每一个样本X
(1)输入X;
(2)计算O=F(XW);
for i=1,m执行如下操作
oi≠yi Then
if oi=0 then for j=1,n
wij=wij+xi
else for j=1,n
wij=wij-xi
在算法中,依次对输出层的每一个神经元的理想输出和实际输出进行比较。如果它们不相同则对相应的联接权进行修改,相当于将对离散单输出感知器的神经元的处理逐个地用于离散多输出感知器输出层的每一个神经元。
第8页/共33页
三、连续多输出感知器训练算法:
;
、学****率α、精度控制变量d= ε+1
3.While d≥ ε do
d=0
for 每个样本(x,y) do
输入样本x={x1,x2,…,xn}
计算O=F(XW)
修改权矩阵W:
for i=1, n, j=1,m
wij=wij+ α (yj-oj)xi
计算累积误差
for j=1, m do
d=d+(yj-oj)2
第9页/共33页