文档介绍:小组CNN卷积神经网络基本概念和案例讲解
01 |
CNN基本概念
02 |
CNN典型网络
03 |
CNN训练过程
04 |
案例背景概述
C
ONTENTS
目录
05 |
的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野), 这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特征图,上图是用了两个filter得到了两个特征图;上图中,展示出一般使用多个filter分别进行卷积,最终得到多个特征图。
制作人: 罗佳 汇报人: 罗佳
卷积层
图一使用了6个filter分别卷积进行特征提取,最终得到6个特征图。将这6层叠在一起就得到了卷积层输出的结果。
图一
图二
卷积不仅限于对原始输入的卷积。蓝色方块是在原始输入上进行卷积操作,使用了6个filter得到了6个提取特征图。绿色方块还能对蓝色方块进行卷积操作,使用了10个filter得到了10个特征图。每一个filter的深度必须与上一层输入的深度相等。
制作人: 罗佳 汇报人: 罗佳
卷积层
(stride)
Stride表示filter在原图片中水平方向和垂直方向每次的步进长度。若stride=2,则表示filter每次步进长度为2,即隔一点移动一次。
制作人: 罗佳 汇报人: 罗佳
卷积层
(zero-padding)
以下图为例子,比如有这么一个5*5的图片(一个格子一个像素),我们滑动窗口取2*2,步长取2,那么我们发现还剩下1个像素没法滑完,那怎么办呢?
➡
那我们在原先的矩阵加了一层填充值,使得变成6*6的矩阵,那么窗口就可以刚好把所有像素遍历完。这就是填充值的作用。每次卷积前,先给图片周围都补一圈空白,让卷积之后图片跟原来一样大,同时,原来的边缘也被计算了更多次。
制作人: 罗佳 汇报人: 罗佳
卷积层
(zero-padding)
不使用Padding的缺点
经过卷积操作后图像会缩小
如果你注意角落边的像素,则此像素点只会被卷积核触碰一次。即只会在第一次卷积操作时被卷积核扫描。这意味着会丢失图像边缘的很多信息。
但是对于原始图像中心的像素点,在每次卷积操作时都会被扫描。卷积核的感受野会扫描此位置多次.
使用Padding进行维度的填充
为了使每次卷积操作后大小不会丢失,使用0填充在原始图像的外围。
如果需要使经过卷积后的特征图大小保持不变,则卷积核的边长是奇数,则能保证输出的特征图大小与原图像大小相等。
制作人: 罗佳 汇报人: 罗佳
卷积层
卷积层由多个特征面( Feature map)组成,每个特征面由多个神经元组成,它的每一个神经元通过卷积核与上一层特征面的局部区域相连 。卷积核是一个权值矩阵(如对于二维图像而言可为 3×3 或5×5 矩阵)。CNN 的卷积层通过卷积操作提取输入的不同特征,第 1 层卷积层提取低级特征如边缘、线条、角落,更高层的卷积层提取更高级的特征。直观理解卷积:
第一次卷积可以提取出低层次的特征。
第二次卷积可以提取出中层次的特征。
第三次卷积可以提取出高层次的特征。
特征是不断进行提取和压缩的,最终能得到比较高层次特征,简言之就是对原式特征一步又一步的浓缩,最终得到的特征更可靠。利用最后一层特征可以做各种任务:比如分类、回归等。
➡
制作人: 罗佳 汇报人: 罗佳
卷积层
2 个
要点
局部感知
通过在底层的局部扫描获得图像的局部特征,然后在高层综合这些特征获取图像的全局信息。
作用:降低参数的数目。
权值共享
CNN中每个卷积核里面的参数即权值,原始图片卷积后会得到一副新的图片,而新图中的每个像素都来自同一个卷积核,这就是权值共享。
作用:进一步降低参数数目。
制作人: 罗佳 汇报人: 罗佳
卷积层
下面蓝色矩阵周围有一圈灰色的框,那些就是上面所说到的填充值,这里的蓝色矩阵就是输入的图像,粉色矩阵就是卷积层的神经元,这里表示了有两个神经元(w0,w1)。绿色矩阵就是经过卷积运算后的输出矩阵,这里的步长设置为2。
制作人: 罗佳 汇报人: 罗佳
卷积层
左区域的三个大矩阵是原式图像的输入,RGB三个通道用三个矩阵表示,大小为7*7*3。
Filter W0 表示1个filter助手,尺寸为3*3,深度为3