1 / 26
文档名称:

卷积神经网络(纯净版).ppt

格式:ppt   大小:3,083KB   页数:26页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

卷积神经网络(纯净版).ppt

上传人:夜无眠 2018/11/10 文件大小:3.01 MB

下载得到文件列表

卷积神经网络(纯净版).ppt

相关文档

文档介绍

文档介绍:Convolutional works 卷积神经网络
1
Contents
机器学习,神经网络,深度学习之间的关系
什么是神经网络
梯度下降算法
反向传播算法
神经网络的训练
什么是卷积
什么是池化
-5
其它的工作
2
Convolutional works
机器学习
神经网络
深度学习
CNN/RNN
3
机器学习,神经网络,深度学习之间的关系
Convolutional works
4
什么是神经网络?
人工神经网络(Artificial work, ANN),简称神经网络(NN)
神经网络其实就是按照一定规则连接起来的多个神经元
神经元: ,
每个连接都有一个权值

Convolutional works
梯度下降算法
5
梯度下降算法是用来求函数最小值的算法
每次沿着梯度的反方向,即函数值下降最快的方向,去修改值,就能走到函数的最小值附近(之所以是最小值附近而不是最小值那个点,是因为我们每次移动的步长不会那么恰到好处,有可能最后一次迭代走远了越过了最小值那个点)
Convolutional works
反向传播算法(Back Propagation)
反向传播算法是计算多层复合函数的所有变量的偏导数的利器,上面梯度下降的例子中就是求梯度,简单的理解就是链式法则
6
根据链式法则,我们求e对a的偏导和e对d的偏导是如下所示:
可以看出,它们都求了e对c的偏导。对于权值动则数万的深度模型中的神经网络,这样的冗余所导致的计算量是相当大的
BP算法则机智地避开了这种冗余,BP算法是反向(自上往下)来求偏导的。
Convolutional works
梯度下降算法+反向传播算法
7
Convolutional works
8
Convolutional works
9
Convolutional works
10