1 / 8
文档名称:

结合离散熵和自组织神经网络SOM边缘检测方法重点.doc

格式:doc   大小:367KB   页数:8页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

结合离散熵和自组织神经网络SOM边缘检测方法重点.doc

上传人:泰山小桥流水 2024/4/15 文件大小:367 KB

下载得到文件列表

结合离散熵和自组织神经网络SOM边缘检测方法重点.doc

相关文档

文档介绍

文档介绍:该【结合离散熵和自组织神经网络SOM边缘检测方法重点 】是由【泰山小桥流水】上传分享,文档一共【8】页,该文档可以免费在线阅读,需要了解更多关于【结合离散熵和自组织神经网络SOM边缘检测方法重点 】的内容,可以使用淘豆网的站内搜索功能,选择自己适合的文档,以下文字是截取该文章内的部分文字,如需要获得完整电子版,请下载此文档到您的设备,方便您编辑和打印。第29卷第5期2008年5月东北大学学报(自然科学版)JournalofNortheasternUniversity(NaturalScience)Vol29, (SOM)的边缘检测方法王坤,高立群,片兆宇,郭丽(东北大学信息科学与工程学院 ,辽宁沈阳110004)摘要:提出了一种结合图像离散熵和自组织神经网络的边缘检测方法 首先,用离散熵选定阈值来分割图像的平滑区域和灰度变化剧烈的区域,用来减少计算量;其次将灰度图像转化为理想二值像素模式;定义了6个边缘类型和6个原型向量将这些边缘向量作为神经网络的输入,通过SOM对其进行边缘分类从而获得边缘图像最后将斑点边缘从边缘图像中去除即得到理想的边缘图像实验结果表明,与其他的边缘检测方法相比获得了较为理想的边缘关键词:边缘检测;离散熵;阈值;自组织神经网络;斑点噪声中图分类号:TP391文献标识码:A文章编号:10053026(2008)05064104anizingMapWANGKun,GAOLiqun,PIANZhaoyu,GUOLi(SchoolofInformationScience&Engineering,NortheasternUniversity,Correspondent:WANGKun,Email:yogo-w@)Shenyang110004,:biningimagediscreteinformationentropywithselforganizingmap(SOM).,,:edgedetection;discreteinformationentropy;threshold;selforganizingmap;specklenoise图像的边缘包含着丰富的信息,因此图像的边缘提取在计算机视觉系统的初级处理中起着关键的作用[1]常用的一阶微分边缘检测方法有Sobel算子、Prewitt算子和Robert算子,它们对噪声很敏感,去噪能力差,在提取边缘的同时又会引入噪声[2];基于最优化算法的Canny算子信噪比大,检测精度高但也对噪声非常敏感[3]根据山农信息论原理,熵最大时信息量最多文中首先计算图像33邻域的熵,然后在这些熵中选择一个阈值,大于阈值的部分为灰度变化较剧烈区域,而小于阈值部分为灰度变化平缓区域灰度变化较剧烈区域存在边缘的可能性比较大,因此接下来对这些区域进行处理,采用33理想二值像素模式来决定边缘梯度的大小和方向并进行分类最后通过SOM训练来获得所需要的理想边缘采用神经网络确定图像边缘具有较好的抗噪性能收稿日期:20070412基金项目:国家自然科学基金资助项目 (60274099):王(),,,;),男,,东北大学教授博士生导师642东北大学学报(自然科学版)第29卷离散信息熵对于二维图像而言就是熵最大时图像最清晰 下面为关于图像熵的定义 :给定一个离散概率分布[4]:[X,Px]=[xk,pkk=1,2,!,K](1)离散随机变量X的信息熵定义为H(X)=-性越大,分布越均匀k=13邻域及可能出现的4个边缘方向对方向1,2,3,4来说,中心像素p5与其邻域间的双向灰度差值和分别用d1,d2,d3,d4表示,计算公式如下:d1=d2=d3=(2)d4=p4-p5+p3-p5+p2-p5+p1-p5+p6-p5,p7-p5,p8-p5,p9-p5(3)Kpklbpk对于离散随机变量,熵越大该区域的不确定对于图像中的每个像素在其邻域的 4个方向上定义了一个四维向量 x=(d1,d2,d3,d4)边缘分类利用像素的33理想二值模式来确定边缘类首先计算每个33邻域的均值并作为阈值将其分为两组,和中心像素属于同一组的用1来代替,其他的用0来代替这样可以减少对图像的平滑滤波和计算复杂度图1为处理过程的一个示例图2像素的33邻域及其[5]根据这4个方向的二值灰度差值和大小可以将边缘分为 6种类型(4类边缘、1类背景、1类斑点噪声)1类边缘在1方向的二值灰度差值和为 #0?而在2,3,4方向上为#1?2类边缘在2方向的二值灰度差值为#0?,而在1,3,4方向上为#1?,同理可得到3类和4类边缘而背景类在4个方向的二值灰度差值均为#0?,斑点噪声类在4个方向的灰度差值均为#2?给定任意一个像素的邻域都有一个在4个方向上确定的特征向量,如图3所示因此对于6种类型的边缘定义6个原型向量,(a)?原图像;(b)?理想二值模式得到33理想二值像素模式后接下来要确定边缘的方向[3,6](背景)1(边缘)2(边缘)3(边缘)4(边缘)5(斑点噪声)Ci(i=0,1,!,5)C0=(11C1=(01C2=(10C3=(11C4=(11C5=(111011)1)1)1)0))3自组织特征神经网络(SOM)自组织特征映射网络也称为Kohonen网络,它是由芬兰学者TeuvoKohonen于1981年提出的,是一种无导师聚类法SOM将任意维输入模式在输出层映射成一维或二维离散图形,SOM网络的每个输出神经元都有一个拓扑邻域,形状一般为六边形或矩形,大小随网络迭代步数逐渐缩1,第5期王坤等:结合离散熵和自组织神经网络(SOM)的边缘检测方法织学****输出层的神经元彼此竞争,最后得到一个获胜神经元,以获胜神经元为中心的邻域中所有神经元的连接权值都会得到相应大小的更新,这称为#胜者为王?原则[7-8]可以用下面的回归方程(4)和(5)来描述网络模式向量的寻找和组织情况其中,t=1,2,3,!为步进指数;x是一个观测值;mi(t)是步骤t时第i个节点的模式向量;c是获胜指数,是更新函数的邻域[9-!i,x-mc(t)10]6433)计算欧氏距离dj,即输入样本与每个输出神经元 j之间的距离:dj=X-Wj=[xi(t)-ij(t)]2i=1(6)并计算出一个具有最小距离的神经元 j*,即确定出某个单元 k,使得对于任意的 j,都有dk=min(dj)j4)给出一个周围的邻域 Sk(t)5)按照式(7)修正输出神经元 j及其#邻接神经元?的权值:ij(t+1)=ij(t)+(t)[xi(t)-ij(t)](7)其中,为一个增益项,并随时间变化逐渐下降到零 ,一般取(t)=或(t)=021-(8)t100006)计算输出ok:X-Wjok=fminj(9)*%x-mi(t),(4)mi(t+1)=mi(t)+hc(x),i(x-mi(t))(5)SOM 的输入观察向量 x和网络上所有的模式向量相比较,和输入向量之间具有最小距离的向量被选为获胜神经元 ,如式(4)所示SOM有9个输入神经元,表示每个像素的 8邻域,6个输出层对应着6个边缘类型SOM的简化模型如图4所示其中,f()为0-1函数或其他非线性函数 7),如果其为一个或两个斑点 ,#cameraman?图像来验证所提出方法的可行性通过手动调节Canny算子的阈值进行边缘检测,将得到的结果与本文方法所得到的结果相比较手动调节Canny算子的参数[Sl,Sh],Sl为低阈值,Sh为高阈值从图5b~图5d可以看出,当[Sl,Sh]为[,]时,原图像中的许多细节均未检测出,它的检测结果较差,如图5b所示;当调节阈值在[,]时,得到的是最好的 Canny算子边缘检测效果,如图5c所示; ,通过SOM来进行分类SOM的学****过程如下:1)初始化对N个输入神经元到输出神经元的连接权值赋予较小的权值选取输出神经元j个#邻接神经元?的集合Sj其中,Sj(0)表示时刻t=0的神经元j的#邻接神经元?的集合,Sj(t)表示时刻t的#邻接神经元?的集合区域Sj(t)随着时间的增长而不断缩小2)提供新的输入模式 X=x(t));(b)?Canny([5]);(c)?,0.)(?本文方法644东北大学学报(自然科学版)第29卷和轮廓,如图5d所示,可以看出本文方法检测到了许多很有价值的边缘(如塔和人脸),并且对较为复杂的场景没有检测出其他冗余的边缘(如草地)图6a为含有椒盐噪声的原图像,采用不同参数的Canny检测结果如图6b,图6c所示,图6d为本文方法检测结果从这些图中可以看出,在有噪声存在的条件下,本文方法仍然可以得到较好的边缘图像而Canny边缘检测方法得到的检测结果中存在许多由于噪声而产生的伪边缘,许多细节部分不能检测到,(a)?原图像;(b)?Canny([,]);(c)?Canny([,]);(d)?本文方法5结语为了减少计算量,本文首先根据信息论中的离散图像熵找到图像灰度剧烈变化的区域,然后将灰度图像转化为像素的理想二值模式,定义6种类型的边缘和6个原型向量,通过自组织神经网络(SOM)来对其进行分类以得到图像边缘,最后去除掉斑点噪声边缘实验结果表明本文提出的方法优于不同参数下的Canny边缘检测方法,在噪声存在的条件下,本文方法取得了比 Canny方法更好的检测效果 参考文献:[1][2][3]GoesE,JohnsonbaughR,[M].NY:PrenticeHall,1996:271-,petitivefuzzyedgedetection[J].puting,2003,36(10):123-[J].IEEETrans,PatternAnalMachIntell,1986,8(6):679-687.[4]ZuoJY,ZhaoCH,PanQ,[C]&:IEEE,2006:10375-10379.[5]KimDS,LeeWH,[J].PatternRecognitionLetters,2004,25:101-106.[6]WangR,GaoLQ,YangS,[C]&:SpringerVerlag,2005:4539-4543.[7][J].ExpertSystemswithApplications,2006,5:1-9.[8].Generalizingselforganizingmapforcategoricaldata[J].works,2006,17(2):294-304.[9][10][J].puting,1998,21(1/2/3):191-:acomprehensivefoundation[M].NY:PrenticeHall,1998:359-360.