1 / 29
文档名称:

绝对经典rbf神经网络.ppt

格式:ppt   大小:696KB   页数:29页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

绝对经典rbf神经网络.ppt

上传人:相惜 2020/6/5 文件大小:696 KB

下载得到文件列表

绝对经典rbf神经网络.ppt

文档介绍

文档介绍:RBF网络特点只有一个隐层,且隐层神经元与输出层神经元的模型不同。隐层节点激活函数为径向基函数,输出层节点激活函数为线性函数。隐层节点激活函数的净输入是输入向量与节点中心的距离(范数)而非向量内积,且节点中心不可调。隐层节点参数确定后,输出权值可通过解线性方程组得到。隐层节点的非线性变换把线性不可分问题转化为线性可分问题。局部逼近网络(MLP是全局逼近网络),这意味着逼近一个输入输出映射时,在相同逼近精度要求下,RBF所需的时间要比MLP少。具有唯一最佳逼近的特性,无局部极小。合适的隐层节点数、节点中心和宽度不易确定。.(高斯)函数:::σ称为基函数的扩展常数或宽度,σ越小,径向基函数的宽度越小,基函数就越有选择性。径向基函数(RBF).全局逼近和局部逼近全局逼近网络局部逼近网络当神经网络的一个或多个可调参数(权值和阈值)对任何一个输出都有影响,则称该神经网络为全局逼近网络。对网络输入空间的某个局部区域只有少数几个连接权影响网络的输出,则称该网络为局部逼近网络学****速度很慢,无法满足实时性要求的应用学****速度快,:以任意精度逼近任一连续函数。一般函数都可表示成一组基函数的线性组合,RBF网络相当于用隐层单元的输出构成一组基函数,然后用输出层来进行线性组合,以完成逼近功能。分类:解决非线性可分问题。RBF网络用隐层单元先将非线性可分的输入空间设法变换到线性可分的特征空间(通常是高维空间),然后用输出层来进行线性划分,完成分类功能。.RBF神经网络两种模型正规化网络RN广义网络GN通用逼近器模式分类基本思想:通过加入一个含有解的先验知识的约束来控制映射函数的光滑性,若输入一输出映射函数是光滑的,则重建问题的解是连续的,意味着相似的输入对应着相似的输出。基本思想:用径向基函数作为隐单元的“基”,构成隐含层空间。隐含层对输入向量进行变换,将低维空间的模式变换到高维空间内,使得在低维空间内的线性不可分问题在高维空间内线性可分。.两种模型的比较隐节点=输入样本数隐节点<输入样本数所有输入样本设为径向基函数的中心径向基函数的中心由训练算法确定径向基函数取统一的扩展常数径向基函数的扩展常数不再统一由训练算法确定没有设置阈值输出函数的线性中包含阈值参数,用于补偿基函数在样本集上的平均值与目标值之平均值之间的差别。(内插值)一般函数都可表示成一组基函数的线性组合,RBF网络相当于用隐层单元的输出构成一组基函数,然后用输出层来进行线性组合,以完成逼近功能。①给定样本数据②寻找函数,使其满足:.。。。:设第j个隐节点在第i个样本的输出为:可矩阵表示:,若R可逆,则解为 helli定理可得,如果隐节点激活函数采用径向基函数,且各不相同,则线性方程组有唯一解。::假设如下的输入输出样本,输入向量为[-11]区间上等间隔的数组成的向量P,相应的期望值向量为T。P=-1::1;T=[-----------];%以输入向量为横坐标,期望值为纵坐标,绘制训练用样本的数据点。figure;plot(P,T,'+')title('训练样本')xlabel('输入矢量P')ylabel('目标矢量T')gridon%目的是找到一个函数能够满足这21个数据点的输入/输出关系,:设计一个径向基函数网络,网络有两层,隐含层为径向基神经元,输出层为线性神经元。p=-3::3; a=radbas(p); figure; plot(p,a) title('径向基传递函数') xlabel('输入p') ylabel('输出a')gridon%每一层神经元的权值和阈值都与径向基函数的位置和宽度有关系,输出层的线性神经元将这些径向基函数的权值相加。如果隐含层神经元的数目足够,每一层的权值和阈值正确,那么径向基函数网络就完全能够精确的逼近任意函数。a2=radbas(p-); a3=radbas(p+2); a4=a+a2*1+a3*; figure; plot(p,a,'b-',p,a2,'b-',p,a3,'b-',p,a4,'m--'); titl