1 / 11
文档名称:

基于卷积神经网络的植物图像分类方法研究.doc

格式:doc   大小:19KB   页数:11页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

基于卷积神经网络的植物图像分类方法研究.doc

上传人:林之孝 2022/8/3 文件大小:19 KB

下载得到文件列表

基于卷积神经网络的植物图像分类方法研究.doc

相关文档

文档介绍

文档介绍:基于卷积神经网络的植物图像分类方法研究
摘 要:近年来,卷积神经网络已经成为图像分类领域的应用研究热点,其对图像特征进行自提取、自学****解决了以往图像分类方法的图像低层特征到高层概念之间存在的语义鸿沟。为了解决植物图像的自动分17年,涌现的经典卷积神经网络模型有LeNet,AlexNet[7],GoogleNet[8],VGG16[9],ResNet[10],FCN[11],Fast R-CNN[12],SPP-Net[13]等。
其中,VGG16(Very Deep Convolutional Networks)是由牛津大学的视觉几何组的Karen和 Andrew实现的卷积神经网络。它的主要目的是研究在大规模图像识别任务中卷积网络的深度对模型精确度的影响,它的主要贡献也在于展示出了算法的优良性能的关键是网络的深度。
FCN(Fully Convolutional Networks)是Jonathan Long等人提出的全卷积网络,用于图像的分割。FCN将CNN中末尾的全连接层改为卷积层,使得整个网络模型能接收任意大小的输入图像尺寸,避免了由于尺寸不同带来的重复存储和复杂计算的问题。
在本文中,结合VGG16与FCN两者的优点,在VGG16的基础上将VGG16中末尾两个通道数为4 096的全连接层转为一个7×7的卷积层和一个1×1的卷积层,从而构造一个新的VGG16网络模型。图2为新的VGG16网络模型,用于植物图像的分类。 由于VGG16模型有16層,模型参数众多,少量的数据无法对网络中的参数进行完全的训练。在本文中,应用已在大数据集ImageNet上充分训练的VGG16神经网络模型参数作为本文中新的VGG16网络模型的初始化参数。在43类植物,每类500张共21 500张的植物图像数据集上进行分类训练。
2 实验设计及结果分析
图像预处理
在以往的图像分类任务中,进行植物图像的分类研究时,一个很大的问题是没有公开统一的数据集,使得各种分类算法间的结论难以做对比。在现今的信息化时代下,图像的信息每天都在呈指数级增长,普通的植物图像数据的获取变得容易。在本文中,收集了43类植物的数据集作为实验的研究数据。
为了减少过拟合现象,对收集来的植物图像进行随机水平、垂直翻转、随机缩放操作来扩充数据集,然后再将数据集以5∶1的比例划分为训练集和测试集。对收集的大小不一的植物图像数据做尺寸归一化,重设为224×224大小,为了使得所有的特征均值都在0附近,保证植物图像的平稳性,对图像做了均值规整化处理。图3为模型训练时使用的图像。
参数设置
在现实生活中,很多问题不都是简单的线性问题,线性模型能解决的问题是有局限性的,所以在深度学****中,强调非线性。在神经元结构示意图中,可以看出神经元的输出为所有输入的加权和,所以整个神经网络是一个线性的网络,在每一个神经元输出后加上一个激活函数,去除神经元输出的线性化,则神经网络就实现了去线性化。图4展示了去线性化的过程。
本文在每层卷积层后加一个ReLU激活函数[14],实现神经网络的去线性化。相比sigmoid和tanh激活函数,ReLU激活函数只需要一个阈值就可以得到激活值,不用进行复杂的运算,所以正向传播的计算速度快,ReLU激活函数可以极大地加快收敛速度。
文中使用在分类问题中广泛使用的交叉熵[15]作为损失函数,交叉熵表达的是两个概率分布之间的距离。假设p代表正确答案,q代表预测值,则:
交叉熵的值越小,p和q的概率分布越接近,预测值越接近真实值,预测准确率越高。
学****率是深度学****中的一个重要参数,合理的学****率设置是训练出一个好的模型的重要因素。当学****率过小时,虽然能保证收敛性,但是会降低网络优化的速度,需要很多轮的迭代才能达到比较理想的网络优化效果,训练花费的时间较长。当学****率设置过大时,会导致参数不能收敛到一个极小值,达不到网络优化的效果。所以在学****率设置方面,,,衰减速度为672。在前期收集植物的图片数据集时,每一类的图片数据集都收集了相同的数量,所以在用Tensorflow实现网络时,学****率设置为呈阶梯状衰减,在每完整地使用一次训练数据时,学****率衰减一次,这样就使得所有的训练数据对模型的优化具有相同的作用。
防止过拟合
在机器学****与深度学****中,过拟合是一个常见的问题,具体表现为在训练集上表现好,在测试集上表现不好,如果模型出现这种情况,那么模型的实用性就较差。为了降低过拟合的概率,在机器学****中主要有几种常用方法:参数范数惩罚也就是正则化,模型过拟合可能是由于模型过于复杂,所以要