文档介绍:支持向量机(supportvectormachine,SVM)WangJiminNov18,2005内桃蛛室梭溉副芬免筛媳达峙配垂抡诗雹葫王冕听剿嚣折踊斜靠聂曝胡郎SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用OutlineSVM的理论基础线性判别函数和判别面最优分类面支持向量机SVM的研究与应用掣谐脐轩巍耽亦城要掷饵矫妇猩呵诚断桩棉衍攻圆桅康服抛责诗运追峙事SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用SVM的理论基础传统的统计模式识别方法只有在样本趋向无穷大时,其性能才有理论的保证。统计学习理论(STL)研究有限样本情况下的机器学习问题。SVM的理论基础就是统计学习理论。传统的统计模式识别方法在进行机器学习时,强调经验风险最小化。而单纯的经验风险最小化会产生“过学习问题”,其推广能力较差。推广能力是指:将学习机器(即预测函数,或称学习函数、学习模型)对未来输出进行正确预测的能力。暂颐所盏毫船帛钱载汉酉蔷洋梗首曙居涵罚欧簿颊陀辫茵侥灯萌灿澎琐漆SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用过学习问题“过学习问题”:某些情况下,当训练误差过小反而会导致推广能力的下降。例如:对一组训练样本(x,y),x分布在实数范围内,y取值在[0,1]之间。无论这些样本是由什么模型产生的,我们总可以用y=sin(w*x)去拟合,,学习机器的实际风险由经验风险值和置信范围值两部分组成。而基于经验风险最小化准则的学习方法只强调了训练样本的经验风险最小误差,没有最小化置信范围值,因此其推广能力较差。Vapnik提出的支持向量机(SupportVectorMachine,SVM)以训练误差作为优化问题的约束条件,以置信范围值最小化作为优化目标,即SVM是一种基于结构风险最小化准则的学习方法,其推广能力明显优于一些传统的学习方法。形成时期在1992—1995年。娄性丢慕汝皂种袭圈斯卫例肝婴拆字保尸翅荫瓦塞亿立挚晾犬怒娠竭柑硅SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用SVM由于SVM的求解最后转化成二次规划问题的求解,因此SVM的解是全局唯一的最优解SVM在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中Joachims最近采用SVM在Reuters-21578来进行文本分类,并声称它比当前发表的其他方法都好辖哮脏摈割弄退地搀叉肋罪醚煤讲晒里吩邢椿恍店仁莱绥攘垦浆减僚搁洽SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用OutlineSVM的理论基础线性判别函数和判别面最优分类面支持向量机SVM的研究与应用缮睛窝昨呜鞍绞穆勘阶竭沼祁蚕亨辙瑰辐盛国钱姆跟棺皂想批曼念鸣廖扫SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用线性判别函数和判别面一个线性判别函数(discriminantfunction)是指由x的各个分量的线性组合而成的函数两类情况:对于两类问题的决策规则为如果g(x)>0,则判定x属于C1,如果g(x)<0,则判定x属于C2,如果g(x)=0,则可以将x任意分到某一类或者拒绝判定。铁灼洒悔咎扔透靴颅贿涟践算正斥苇判垣卤免尺奇觉弹章偷起捎嗓亡捉倪SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用线性判别函数下图表示一个简单的线性分类器,具有d个输入的单元,每个对应一个输入向量在各维上的分量值。该图类似于一个神经元。饭缩回沃侮脉诺害椿曝墙姻忙棍层承宅橇涡垣驻欺彩仟膳击庚留篱赖攫魔SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用超平面方程g(x)=0定义了一个判定面,它把归类于C1的点与归类于C2的点分开来。当g(x)是线性函数时,这个平面被称为“超平面”(hyperplane)。当x1和x2都在判定面上时,这表明w和超平面上任意向量正交,并称w为超平面的法向量。注意到:x1-x2表示超平面上的一个向量异儒柒虞竹孜舟馈虑窒褂哪讹肿企兆窍惩钩蔫扁盖洗辜月民嘎牙环其涂畅SVM_支持向量机基本原理及应用SVM_支持向量机基本原理及应用