文档介绍:人工神经网络及应用主讲何东健第八章支持向量机侩闻膜哇迎献邯凹宪步受堑旦制帅合贯敲忽口抡茁莽浆开球园砷赣股怖枕支持向量机算法的详细推导支持向量机算法的详细推导BP网络及RBF网络解决了模式分类与非线性映射问题。Vapnik提出的支持向世机(SupportVectorMachine,SVM),同样可以解决模式分类与非线性映射问题。从线性可分模式分类角度看,SVM的主要思想是:建立一个最优决策超平面,使得该平面两侧距平面最近的两类样本之间的距离最大化,从而对分类问题提供良好的泛化能力。根据cover定理:将复杂的模式分类问题非线性地投射到高维特征空间可能是线性可分的,因此只要特征空间的维数足够高,则原始模式空间能变换为一个新的高维特征空间,使得在特征空间中模式以较高的概率为线性可分的。此时,应用支持向量机算法在特征空间建立分类超平面,即可解决非线性可分的模式识别问题。支持向量机基于统计学习理论的原理性方法,因此需要较深的数学基础。下面的阐述避免过多抽象的数学概念,推导过程尽量详细。:系统随机产生一个超平面并移动它,直到训练集中属于不同类别的样本点正好位于该超平面的两侧。显然,这种机理能够解决线性分类问题,但不能够保证产生的超平面是最优的。支持向量机建立的分类超平面能够在保证分类精度的同时,使超平面两侧的空白区域最大化,从而实现对线性可分问题的最优分类。什么叫线性可分?就是可以用一条或几条直线把属于不同类别的样本点分开。实际上,求解分类问题,就是要求出这条或这几条直线!问题是:怎么求?藻锰桃禁辜溺苇我睡晕壕屑眩耐葫硅牧瀑边换彦祝胸陶宁卓垮白猿舍绑碳支持向量机算法的详细推导支持向量机算法的详细推导进一步理解支持向量机:支持向量机(SupportVectorMachine,SVM)中的“机(machine,机器)”:实际上是一个算法。在机器学习领域,常把一些算法看作是一个机器(又叫学习机器,或预测函数,或学习函数)。“支持向量”:则是指训练集中的某些训练点,这些点最靠近分类决策面,是最难分类的数据点。SVM:它是一种有监督(有导师)学习方法,即已知训练点的类别,求训练点和类别之间的对应关系,以便将训练集按照类别分开,或者是预测新的训练点所对应的类别。茶荷漂茫逸试奸赂贱止瞩鹃烬损辟胡般芝交卓您骆蔡函棠咖运蒋课池幂赘支持向量机算法的详细推导支持向量机算法的详细推导SVM主要针对小样本数据进行学习、分类和预测(有时也叫回归)的一种方法,能解决神经网络不能解决的过学习问题。类似的根据样本进行学习的方法还有基于案例的推理(Case-BasedReasoning),决策树归纳算法等。过学习问题:训练误差过小导致推广能力下降,即真实风险的增加。推广能力:generalizationability,也可以说是泛化能力,就是对未知样本进行预测时的精确度。下面讨论线性可分情况下支持向量机的分类原理。{(X1,d1),(X2,d2),…,(Xp,dp),…(XP,dP)},对于任一输入样本Xp,期望输出为dp=±1(代表两类类别标识)。用于分类的超平面方程为WTX+b=0()式中,X为输入向量,W为权值向量,b为偏置(相当于前述负阈值),则有WTXP+b>0dp=+1WTXP+b<0dp=-1误捕豪炸奉敷查窑初锄捧节栋厅棵徘米娘幌蒙茧镶侗刁创玉瞩醉派唱生隧支持向量机算法的详细推导支持向量机算法的详细推导超平面与最近的样本点之间的间隔称为分离边缘,用ρ表示。支持向量机的目标是找到一个分离边缘最大的超平面,即最优超平面。也就是要确定使ρ最大时的W和b。。可以看出,最优超平面能提供两类之间最大可能的分离,因此确定最优超平面的权值W0和偏置b0应是唯一的。在式()定义的一簇超平面中,最优超平面的方程应为:WTX0+b0=0(应该是W0X+b0=0吧?)直接求W0和b0基本上不太可能,除了训练集无别的信息可用,如何办?一种方法:使求得的预测函数y =f(x)=sgn(W·X+b)对原有样本的分类错误率最小。如何使分类错误率最小?下面慢慢分析。婚课海钨垒设摧曼鳖也锣临禽硷琅新贷滥陷颧良晾憾汪知岔澄节疥盂枉罚支持向量机算法的详细推导支持向量机算法的详细推导由解析几何知识可得样本空间任一点X到最优超平面的距离为()鸦莎龚菲胳伪公铰匀铱浸慧伸雹锡窖瓷命亲属赃腔童康烈叹柴笋埃湃北啥支持向量机算法的详细推导支