1 / 16
文档名称:

模式识别课件(总顺序 No9)(第六章 NO1)(谭 超)(071203)(最近邻法).ppt

格式:ppt   大小:146KB   页数:16页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

模式识别课件(总顺序 No9)(第六章 NO1)(谭 超)(071203)(最近邻法).ppt

上传人:wenjun1233211 2021/7/12 文件大小:146 KB

下载得到文件列表

模式识别课件(总顺序 No9)(第六章 NO1)(谭 超)(071203)(最近邻法).ppt

相关文档

文档介绍

文档介绍:第六章 近邻法
最近邻法
一. 最近邻法的基本思想
   此法是一种根据提供的信息,绕开概率的估计而直接决策的方法,所以它是非参数决策方法的一种。
   其基本思想是:设有一组N个样本
    æ={ X1,X2,……,XN}
 其中每个样本都已标以类别标志。如果在这N个样本中与待分样本X的一个样本为Xiæ,则把X分到Xi所在的类别中去。
1
二. 最近邻法的决策规则
  设有c类模式样本,
 ω1, ω2,……, ωc
  每类有Ni个样本(i=1,2,……,c),则最近邻法的(ωi类)判别函数为:
  式中 表示ωi类中的第k个样本。
2
对应的决策规则为:
    如果
   则决策
  即只要将待分样本X与全部N( )个已知类别的样本进行欧氏距离之间的比较,然后将X归到离它最近的类别中。
由于这种方法只根据离待分样本X最近的一个样本的类别而决定其类别,所以通常称为1-最近邻法(亦称1-NN方法)
3
三. 最近邻法的错误率问题
   最近邻法是一种次优方法,它的错误率比最小错误概率的Bayes决策规则下的错误率要大,但是,当样本数目无限时,它的错误率不会超过Bayes错误率的一倍。
定性分析:
若将X的最近邻Xj的类别看成是一个随机变量 ,于是
  的概率就是后验概率 .
   当样本数目很多时,可以认为X的最近邻Xj 离它很近,从而近似的认为
4
这时最近邻法可看成是如下的随机化决策:
    按照概率 来决定X的类别。
故最近邻法可看成是用后验概率来对X进行分类的。
  再进一步说,就是如果有下式成立:
  则依Bayes决策,应取 作为X的类别。而在最近邻法中,最近邻的类别为 的概率为    ,所以X分到 类去的概率为    ,而不分到  类去的概率为:
5
这也就是说:
  按Bayes决策的话:以概率为1,而得决策 
  按最近邻法决策的话:以概率为   ,而得决策
  显然,当    接近于1时,最近邻法与最小错误率下的Bayes法的结果就几乎相同了。也就是说,当最小错误概率较小时,最近邻法的错误概率也是较小的,这两种方法同样“好”。
  而当各类的    都接近于 时(即所有类别是等可能的),最近邻法与Bayes法的结果就不一样了。这时两者的错误率都接近于
6
定量描述:
式中:p为最近邻法的渐近平均错误率
为 Bayes错误率
c 为类别数
一般较小
7
k-近邻法(k-NN法)
  为了克服单个样本类别的偶然性以增加分类的可靠性,可将最近邻法则进行改进,一个简单的方法就是k-近邻法。
  此法就是考察待分样本X的k个最近邻样本,这k个最近邻元素中哪一类的样本最多,就将X判属哪一类。或者说,就是在N个已知类别的样本中,找出X的k个近邻,这k个近邻中多数属于的那一类 ,就是 。
具体就是:设k1,k2,......,kc分别为X的k个最近邻样本中属于

类的样本数,
8
则定义 类的判别函数为:

决策规则为:
  如果
  则判
  最近邻法和k-近邻法的共同优点是简单,而且结果是比较好的,但是它们也存在下述问题:
① 需要将全部样本存入机器中,每次决策都要计算X与全部样本间的距离并进行比较。所以要求的存储容量和计算量都很大。
② 没有考虑到决策的风险,所以如果决策的错误代价很大时,会产生很大的风险。
③上述分析是建立在样本数 的假定上的,这在实际应用中是无法实现的。
9
近邻法的改进算法
  共同特点是如何尽快地找出最近邻可能存在的小的空间,减少搜索的范围,从而达到减少近邻法中的计算量和存储量的问题。
一. 快速近邻算法
  该算法对最近邻法和k-近邻法都适用。下面以最近邻法为例来讨论。
1. 基本思想
  将全部已知样本按级分成一些不相交的子集,并在子集的基础上进行搜索。也就是说,该算法由两个阶段组成:
第一阶段:将样本集按级