文档介绍:摘要
支持向量机学****方法的理论基础是统计学****理论,该方法继承了统计学****理论的许多
优秀的概念,比如 VC 维概念,结构风险最小原理等,在此基础上提出最优超平面概念,
用于计算基于最优超平面的决策函数;同时引入核函数后,使得非线性映射绕过高维空间,
避免“维数灾难”,计算更加方便,从而可以得到较为理想的泛化能力。对于非线性可分的
样本集,合理选择核函数可以提高其映射的线性化程度,增强可分性和预测能力。因此,
核函数的选择及核函数中相关参数的选择对样本线性可分的作用很大。
不同形式的核函数,由于其自身的特点不同,使其对非线性样本的映射效果有所不同,
因此,怎样选择合适的核函数是SVM学****方法中十分重要的研究课题。针对核函数的选择
问题,本文着重做了以下研究内容:一是原始样本数据分布特征的数学描述方法的研究;
二是基于样本分布特征数学描述出发,根据样本不同分布特征来选取合适的核基函数;三
是在核基函数选择方法研究的基础上,阐述了一种核基函数优化组合方法,即利用数据分
布特征选择各个子集的核基函数,再进行核基函数的线性组合;四是介绍了一种利用核矩
阵的秩差异度选择核函数组合的方法。这种方法先把预选的几种核函数组合映射得到核矩
阵,再通过计算各核矩阵的秩差异度来选择合适的核函数组合。对以上核函数选择方法的
研究结果,均进行了相应的仿真实验。实验证明,以上方法对SVM学****方法的泛化能力有
明显提高,方案是切实可行的。
通过以上内容的研究,丰富了核函数选择方法,有助于 SVM 学****能力和泛化能力的提
高,具有一定的工程推广价值。
关键词:SVM;核函数;数据分布特征;秩差异度
I
Abstract
Support Vector Machine is a new machine learning method based on Statistical Learning
Theory. The method inherited the many excellent concept of statistical learning theory, such as VC
dimension, the theory of minimum structure risk. The theory as a foundation, puts forward the
optimal hyperplanes concept, used to generate decision function. Kernels are used in SVM to map
the learning data (non-linearly) into a higher dimensional feature space where putational
power of the linear learning machine is increased, It can get rid of the "dimension disaster"
problem . A kind of good method SVM used in the small sample, non-linearly sample and High
dimensional pattern recognition. The Logical Choice of kernel function can increase the mapping
of linear degree. So, the Choice of kernel function and related parameters is important to improve
the Sample separability.
Every kernel function has its advantages and disadvantages, its to the effect of mapping
non-linearity samples is different, the method of selection kernel function in the study of SVM is
very important. The contents of my paper is introduced to the method of selection kernel function
based on the distribution characteristics of samples. Firs