1 / 38
文档名称:

支持向量机基本原理及应用.ppt

格式:ppt   大小:728KB   页数:38页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

支持向量机基本原理及应用.ppt

上传人:mh900965 2016/8/27 文件大小:728 KB

下载得到文件列表

支持向量机基本原理及应用.ppt

文档介绍

文档介绍:支持向量机( support vector machine , SVM ) 支持向量机( support vector machine , SVM ) 信息科学技术学院信息科学技术学院· ·网络研究所网络研究所 Outline ? SVM 的理论基础?线性判别函数和判别面?最优分类面?支持向量机? SVM 的研究与应用信息科学技术学院信息科学技术学院· ·网络研究所网络研究所 SVM 的理论基础?传统的统计模式识别方法只有在样本趋向无穷大时,其性能才有理论的保证。统计学习理论( STL )研究有限样本情况下的机器学习问题。 SVM 的理论基础就是统计学习理论。?传统的统计模式识别方法在进行机器学习时,强调经验风险最小化。而单纯的经验风险最小化会产生“过学习问题”,其推广能力较差。?推广能力是指: 将学习机器(即预测函数,或称学习函数、学习模型)对未来输出进行正确预测的能力。信息科学技术学院信息科学技术学院· ·网络研究所网络研究所过学习问题?“过学习问题”:某些情况下,当训练误差过小反而会导致推广能力的下降。?例如:对一组训练样本(x,y),x 分布在实数范围内, y取值在[0, 1]之间。无论这些样本是由什么模型产生的,我们总可以用 y=sin(w * x)去拟合,使得训练误差为 0. 信息科学技术学院信息科学技术学院· ·网络研究所网络研究所 SVM ?根据统计学习理论,学习机器的实际风险由经验风险值和置信范围值两部分组成。而基于经验风险最小化准则的学习方法只强调了训练样本的经验风险最小误差,没有最小化置信范围值,因此其推广能力较差。? Vapnik 提出的支持向量机( Support Vector Machine, SVM )以训练误差作为优化问题的约束条件,以置信范围值最小化作为优化目标,即 SVM 是一种基于结构风险最小化准则的学习方法,其推广能力明显优于一些传统的学习方法。?形成时期在 1992 — 1995 年。信息科学技术学院信息科学技术学院· ·网络研究所网络研究所 SVM ?由于 SVM 的求解最后转化成二次规划问题的求解,因此 SVM 的解是全局唯一的最优解? SVM 在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中? Joachims 最近采用 SVM 在 Reuters- 21578 来进行文本分类,并声称它比当前发表的其他方法都好信息科学技术学院信息科学技术学院· ·网络研究所网络研究所 Outline ? SVM 的理论基础?线性判别函数和判别面?最优分类面?支持向量机? SVM 的研究与应用信息科学技术学院信息科学技术学院· ·网络研究所网络研究所线性判别函数和判别面?一个线性判别函数(discriminant function) 是指由 x的各个分量的线性组合而成的函数?两类情况:对于两类问题的决策规则为?如果 g(x)>0 ,则判定 x属于 C1, ?如果 g(x)<0 ,则判定 x属于 C2 , ?如果 g(x)=0 ,则可以将 x任意?分到某一类或者拒绝判定。 0 ( ) T g x w x w ? ?信息科学技术学院信息科学技术学院· ·网络研究所网络研究所线性判别函数?下图表示一个简单的线性分类器,具有 d 个输入的单元,每个对应一个输入向量在各维上的分量值。该图类似于一个神经元。 0 ( ) T g x w x w ? ?信息科学技术学院信息科学技术学院· ·网络研究所网络研究所超平面?方程 g(x)=0 定义了一个判定面,它把归类于 C1的点与归类于 C2 的点分开来。?当 g(x) 是线性函数时,这个平面被称为“超平面”(hyperplane) 。?当 x1和 x2 都在判定面上时, ?这表明 w和超平面上任意向量正交, ?并称 w为超平面的法向量。?注意到: x1-x2 表示?超平面上的一个向量