1 / 29
文档名称:

全连接神经网络.ppt

格式:ppt   大小:3,649KB   页数:29页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

全连接神经网络.ppt

上传人:非学无以广才 2024/5/10 文件大小:3.56 MB

下载得到文件列表

全连接神经网络.ppt

相关文档

文档介绍

文档介绍:该【全连接神经网络 】是由【非学无以广才】上传分享,文档一共【29】页,该文档可以免费在线阅读,需要了解更多关于【全连接神经网络 】的内容,可以使用淘豆网的站内搜索功能,选择自己适合的文档,以下文字是截取该文章内的部分文字,如需要获得完整电子版,请下载此文档到您的设备,方便您编辑和打印。全连接神经网络梅子阳1992019**********/5/101全连接神经网络2024/5/102全连接神经网络2024/5/103全连接神经网络机器学****有监督学****SupervisedLearning)有监督学****的数据集包含了样本??与样本的标签??,算法模型需要学****到映射关系????:??→??,其中????代表模型函数,?? 为模型的参数。在训练时,通过计算模型的预测值????(??)与真实标签??之间的误差来优化网络参数??,使得网络下一次 能够预测更精准。常见的有监督学****有线性回归、逻辑回归、支持向量机、随机森林等无监督学****UnsupervisedLearning)收集带标签的数据往往代价较为昂贵,对于只有样本??的数据集,算法需要自行发现数据的模态,这种方式叫作无监督学****在训练时,通过计算模型的预测值????(??)与自身??之间的误差来优化网络参数??。常见的无监督学****算法有自编码器、生成对抗网络等。强化学****ReinforcementLearing)也称为增强学****通过与环境进行交互来学****解决问题的策略的一类算法。与有监督、无监督学****不同,强化学****问题并没有明确的“正确的”动作监督信号。常见的强化学****算法有DQN,PPO等。2024/5/104全连接神经网络神经网络神经网络算法是一类基于神经网络从数据中学****的算法,它仍然属于机器学****的范畴受限于计算能力和数据量,早期的神经网络层数较浅,一般在1~4层左右,网络表达能力有限。随着计算能力的提升和大数据时代的到来,高度并行化的GPU和海量数据让大规模神经网络的训练成为可能。2006年,GeoffreyHinton首次提出深度学****的概念。2012年,发布,并在图片识别竞赛中取得了巨大的性能提升,此后数十层、数百层、甚至上千层的神经网络模型相继提出,展现出深层神经网络强大的学****能力。一般将利用深层神经网络实现的算法称作深度学****本质上神经网络和深度学****可认为是相同的。GeoffreyHinton2024/5/105全连接神经网络深度学****与其它算法比较基于规则的系统一般会编写显式的规则逻辑,这些逻辑一般是针对特定的任务设计的,并不适合其他任务。传统的机器学****算法一般会人为设计具有一定通用性的特征检测方法,如SIFT、HOG特征,这些特征能够适合某一类的任务,具有一定的通用性,但是如何设计特征方法,以及特征方法的优劣性是问题的关键。神经网络的出现,使得人为设计特征这一部分工作可以通过神经网络让机器自动学****完成,不需要人类干预。但是浅层的神经网络的特征提取能力较为有限,而深层的神经网络擅长提取高层、抽象的特征,因此具有更好的性能表现。2024/5/106全连接神经网络从神经元开始典型生物神经元结构假设信号经过神经元传输,输入x与输出??(??)之间发生了怎么样的改变?用线性方程来模拟这个过程:其中w为信号的增益,b为信号的偏置;当输入为向量形式??=[??1,????2,??3,…,????]T时,线性方程变为??(??)=????+b??(??)=??1??1+??2??2+??3??3+?+????????+b2024/5/107全连接神经网络线性模型??=????+b在仅有两个数据点时,单输入的线性模型似乎可以完美的拟合数据点;但数据点较多时,线性模型便出现误差;2024/5/108全连接神经网络误差优化在众多数据点中,找到一条与所有数据点误差为最小的函数;将其作为优化问题:优化函数??(??)=????+b中的参数w与b,使得均方函数的取值最小,此时我们称均方函数为损失函数上面的过程记为:2024/5/109全连接神经网络线性回归这个过程其实是我们很熟悉的线性回归问题,在R语言中只需几行代码就可以实现:而深度学****的回归思想则是使用损失函数的可导性,通过累次求导的过程,使得函数参数不断优化,直到得到合适的结果;根据梯度的知识,梯度???总是向着函数值增大的方向前进,则梯度的反方向指向函数值减少的方向,则只需要按照来迭代更新??′,就能获得越来越小的函数值,其中??用来缩放梯度向量,一般设置为某较小的值,、。特别地,对于一维函数,上述向量形式可以退化成标量形式:2024/5/1010全连接神经网络