1 / 11
文档名称:

判别分析中Fisher判别法的应用.doc

格式:doc   页数:11
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

判别分析中Fisher判别法的应用.doc

上传人:1006108867 2013/9/7 文件大小:0 KB

下载得到文件列表

判别分析中Fisher判别法的应用.doc

文档介绍

文档介绍:1 绪论

随着社会经济不断发展,科学技术的不断进步,人们已经进入了信息时代,要在大量的信息中获得有科学价值的结果,从而统计方法越来越成为人们必不可少的工具和手段。多元统计分析是近年来发展迅速的统计分析方法之一,应用于自然科学和社会各个领域,成为探索多元世界强有力的工具。 
判别分析是统计分析中的典型代表,判别分析的主要目的是识别一个个体所属类别的情况下有着广泛的应用。潜在的应用包括预测一个公司是否成功;决定一个学生是否录取;在医疗诊断中,根据病人的多种检查指标判断此病人是否有某种疾病等等。它是在已知观测对象的分类结果和若干表明观测对象特征的变量值的情况下,建立一定的判别准则,使得利用判别准则对新的观测对象的类别进行判断时,出错的概率很小。而Fisher判别方法是多元统计分析中判别分析方法的常用方法之一,能在各领域得到应用。通常用来判别某观测量是属于哪种类型。在方法的具体实现上,采用国内广泛使用的统计软件SPSS(Statistical Product and Service Solutions),它也是美国SPSS公司在20世纪80年代初开发的国际上最流行的视窗统计软件包之一
Fisher判别法的概述
根据判别标准不同,可以分为距离判别、Fisher判别、Bayes判别法等。Fisher判别法是判别分析中的一种,其思想是投影,Fisher判别的基本思路就是投影,针对P维空间中的某点x=(x1,x2,x3,„,xp)寻找一个能使它降为一维数值的线性函数y(x):  
然后应用这个线性函数把P维空间中的已知类别总体以及求知类别归属的样本都变换为一维数据,再根据其间的亲疏程度把未知归属的样本点判定其归属。这个线性函数应该能够在把P维空间中的所有点转化为一维数值之后,既能最大限度地缩小同类中各个样本点之间的差异,又能最大限度地扩大不同类别中各个样本点之间的差异,这样才可能获得较高的判别效率。在这里借用了一元方差分析的思想,即依据组间均方差与组内均方差之比最大的原则来进行判别。
算法优缺点分析
优点:(1)一般对于线性可分的样本,总能找到一个投影方向,使得降维后样本仍然线性可分,而且可分性更好即不同类别的样本之间的距离尽可能远,同一类别的样本尽可能集中分布。
(2)Fisher方法可直接求解权向量;
(3)Fisher的线性判别式不仅适用于确定性模式分类器的训练,而且对于随机模式也是适用的,Fisher还可以进一步推广到多类问题中去
缺点:
(1)如果,,则样本线性不可分; ,未必线性可分; 不可逆,未必不可分。
(2)对线性不可分的情况,Fisher方法无法确定分类
2 实验原理
线性投影与Fisher准则函数
各类在维特征空间里的样本均值向量:
, (-2)
通过变换映射到一维特征空间后,各类的平均值为:
, (-3)
映射后,各类样本“类内离散度”定义为:
, (-4)
显然,我们希望在映射之后,两类的平均值之间的距离越大越好,而各类的样本类内离散度越小越好。因此,定义Fisher准则函数:
(-5)
使最大的解就是最佳解向量,也就是Fisher的线性判别式。
求解
从的表达式可知,它并非的显函数,必须进一步变换。
已知:,, 依次代入(-1)和(-2),有:
, (-6)
所以:
(-7)
其中: (-8)
是原维特征空间里的样本类内离散度矩阵,表示两类均值向量之间的离散度大小,因此,越大越容易区分。
将(-6)和(-2)代入(-4)式中:

(-9)
其中:, (-10)
因此: (-11)
显然: (-12)
称为原维特征空间里,样本“类内离散度”矩阵。
是样本“类内总离散度”矩阵。
为了便于分类,显然越小越好,也就是越小越好。
将上述的所有推导结果代入表达式:
可以得到:
其中,是一个比例因子,不影响的方向,可以删除,从而得到最后解:
(-18)
就使取得最大值,可使样本由维空间向一维空间映射,其投影方向最好。是一个Fisher线性判断式。
   这个向量指出了相对于Fisher准则函数最好的投影线方向。
Fisher算法步骤
由Fisher线性判别式求解向量的步骤:
①把来自两类的训练样本集分成和两个子集和。
②由,,计算。
③由计算各类的类内离散度矩阵,。
④计算类内总离散度矩阵。
⑤计算的逆矩阵。
⑥由求解。
3 实验目的
应用统计方法解决模式识别问题的困难之一是维数问题,在低维空间行得通的方法,在高维空间往往行不通。因此,降低维数就