文档介绍:人工神经网络
Artificial
work
目录
第1章概述
人工神经网络研究与发展
生物神经元
人工神经网络的构成
第2章人工神经网络基本模型
MP模型
感知器模型
自适应线性神经元
第3章 EBP网络(反向传播算法)
含隐层的前馈网络的学习规则
Sigmoid激发函数下的BP算法
BP网络的训练与测试
BP算法的改进
多层网络BP算法的程序设计
多层前向网络BP算法源程序
第4章 Hopfield网络模型
离散型Hopfield神经网络
连续型Hopfield神经网络
Hopfield网络模型源程序
旅行商问题(TSP)的HNN求解
Hopfield模型求解TSP源程序
第5章随机型神经网络
模拟退火算法
Boltzmann机
Boltzmann机模型源程序
Gaussian机
第6章自组织神经网络
竞争型学习
自适应共振理论(ART)模型
自组织特征映射(SOM)模型
CPN模型
目录
第7章联想记忆神经网络
联想记忆基本特点
线性联想记忆LAM模型
双向联想记忆BAM模型
时间联想记忆TAM模型
Hopfield模型联想记忆源程序
第8章 CMAC模型
CMAC模型
CMAC映射算法
CMAC的输出计算
CMAC控制器模型
目录
神经网络研究与发展
40年代初,美国Mc Culloch和PiMs从信息处理的角度,。MP模型的提出开始了对神经网络的研究进程。1949年心理学家Hebb提出著名的Hebb学习规则,即由神经元之间结合强度的改变来实现神经学习的方法。虽然Hebb学习规则在人们研究神经网络的初期就已提出,但是其基本思想至今在神经网络的研究中仍发挥着重要作用。
50年代末期,Rosenblatt提出感知机模型(Perceptron),首先从工程角度出发,,它基本符合神经生理学的原理。感知机虽然比较简单,却已具有神经网络的一些基本性质,如分布式存贮、并行处理、可学习性、连续计算等。这些神经网络的特性与当时流行串行的、离散的、符号处理的电子计算机及其相应的人工智能技术有本质上的不同,由此引起许多研究者的兴趣,在60代掀起了神经网络研究的第一次高潮。但是,当时人们对神经网络研究过于乐观,认为只要将这种神经元互连成一个网络,就可以解决人脑思维的模拟问题,然而,后来的研究结果却又使人们走到另一个极端上。
在60年代末,美国著名人工智能专家Minsky和Papert对Rosenblatt的工作进行了深人研究,出版了有较大影响的(Perceptron)一书,指出感知机的功能和处理能力的局限性,甚至连XOR(异或)这样的问题也不能解决,同时也指出如果在感知器中引入隐含神经元,增加神经网络的层次,可以提高神经网络的处理能力,但是却无法给出相应的网络学习算法。因此Minsky的结论是悲观的。另一方面,由于60年代以来集成电路和微电子技术日新月异的发展,使得电子计算机的计算速度飞速提高,加上那时以功能模拟为目标、以知识信息处理为基础的知识工程等研究成果,给人工智能从实验室走向实用带来了希望,这些技术进步给人们造成这样的认识:以为串行信息处理及以它为基础的传统人工智能技术的潜力是无穷的,这就暂时掩盖了发展新型计算机和寻找新的人工智能途径的必要性和迫切性。另外,当时对大脑的计算原理、对神经网络计算的优点、缺点、可能性及其局限性等还很不清楚。总之,认识上的局限性使对神经网络的研究进入了低潮。
在这一低潮时期,仍有一些学者扎扎实实地继续着神经网络模型和学习算法的基础理论研究,提出了许多有意义的理论和方法。其中,主要有自适应共振理论,自组织映射,认知机网络模型理论,BSB模型等等,为神经网络的发展奠定了理论基础。
进入80年代,首先是基于“知识库”的专家系统的研究和运用,在许多方面取得了较大成功。但在一段时间以后,实际情况表明专家系统并不像人们所希望的那样高明,特别是在处理视觉、听觉、形象思维、联想记忆以及运动控制等方面,传统的计算机和人工智能技术面临着重重困难。模拟人脑的智能信息处理过程,如果仅靠串行逻辑和符号处理等传统的方法来济决复杂的问题,会产生计算量的组合爆炸。因此,具有并行分布处理模式的神经网络理论又重新受到人们的重视。对神经网络的研究又开始复兴,掀起了第二次研究高潮。
1982年,美国加州理工学