文档介绍:卷积神经网络算法分析及图像处理示例
摘要:卷积神经网络具有局部结合、权值共享及下采样等特征,可有效地降低网络的复杂度减少训练参数的数目。基于这些优越特性,它在各种信息处理中的性能优于传统的神经网络。本文首先介绍神经网络,进而详esel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,进而提出了卷积神经网络CNN。如今,CNN已经成为众多科学领域的研究应用热点之一,特别是在图像处理领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。。卷积神经网本质上是一个权值共享的多层复合函数。该模型的特征使得图像在平移、扭曲、缩放等操作中具有一定程度的不变性,并具有很强的鲁棒性和容错能力,并且也易于训练和优化。如图2,卷积神经网络分为输入层、卷积层、下采样层、全连接层以及输出层。
卷积层,卷积层是卷积神经网络的核心。该层通过“局部感受野”和“权值共享”等神经网络处理操作。卷积层可对高维数据输入实施降维处理并自动提取原始数据的核心特征,达到了去伪存真的目的,极大地提高了处理时效。激活层,激活层中的激活函数包括线性激活函数和非线性激活函数。非线性激活函数将前一层的线性输出进行非线性激活函数处理,从而可达到模拟、逼近任意复杂函数的目的,进而增强网络的表征能力。常见的三种非线性激活函数包括Sig-moid、Tanh、RELU等,如下图四种不同的激活函数:
线性激活函数只能进行线性可分,非线性激活函数使得网络模型可以非线性的表征特征。Sigmoid函数取值范围为(0,1),它可以将实数映射到(0,1)的区间,用来做二分类。然而,Sig-moid函数在趋近0和1时变化率会变得平坦导致梯度消失。Tanh函数也会出现梯度消失的问题。与sigmoid的区别是,tanh的函数取值范围为(-l,1),Tanh的梯度值变化较快,在特征相差明显时具有优越特性。修正线性单元RELU的提出解决了梯度消失问题,该函数具有收敛速度快,且不会产生梯度消失等特性。激活层增强了网络的表示能力和学习能力。下采样层,下采样层其目的是利用数据局部相关性比如图像数据的局部相似性,通过下采样获得少量有用数据来表征数据的主要特征,下采样层降低了数据的处理规模。由于下采样具备局部线性转换不变性,从而增强卷积神经网络的泛化处理能力。全连接层,通过卷积、激活、池化等多个网络层处理之后,使得待处理的数据特性发生了显著变化:输人数据的维度降低了,非常可观地减少了全连接层网络的复杂度;全连接层的输入数据已不再是冗多繁杂的数据,而是经过反复提纯过的主要特征数据,使得最后输出的结果更加简练、高效、可处理。在同一特征映射层面上的神经元权值相同,所以卷积神网络可以并行学习,这是卷积神经网络的一大优势。卷积神经网络从提出至今已经经历多种变形與融合发展,包括LeNet、AlexNet、FNet、VGG、NIN、ResNet、GoogleNet、SENet等经典的结构。
3 TensorFlow及图像处理上的应用
TensorFlow是基于张量流的机器学习计算框架。它是基于数据流图作为核心抽象,采用声明式编程范式,即程序像一种数学模型表达