基于复合核函数及软边缘的新型支持向量机的研究
本文首先系统地总结了支持向量机理论。支持向量机是Vapnik等人根据统计学习理(Statistical Learning Theory,简称SLT)提出的一种学习方法,是基于线性可分情况下的最优分类超平面提出的算法。支持向量机“软边缘”策略的引入使支持向量机在很多领域得到广泛的应用和发展。
在深入了解支持向量机理论及国内外研究现状的基础上,论文研究了支持向量机内积核函数的工作原理及其构造和支持向量机的边缘处理策略。研究发现传统支持向量机在分类方面存在两点不足:
1.目前的“软边缘”支持向量机算法对错分的样本数据不加区别,采用完全相同的错分代价,引入相同错分惩罚因子,认为所有被错分的形形色色的数据对确定最后决策分类面的影响度是相同的。这种边缘处理模式的一刀切策略对错分样本数据的惩罚度相同,最终会导致分类精度不高。
2.传统的单一核函数不能满足噪声数据的现实需求,使得分类机器的学习能力不强,或者推广能力不强。
针对传统支持向量机的上述不足,文章提出了以下两点改进:
1.对错分的样本数据,采用不同的错分代价,引入不同错分惩罚因子;对分类超平面两侧的数据点采用区别对待的新的软边缘处理模式。
2.在原有核函数的基础上提出了一种新型复合核函数,并通过调整新型核函数的各个参量使支持向量机具有较为均衡的学习能力和泛化能力;
在建立了新型支持向量机模型之后,论文通过数值试验结果分析并验证了改进的支持向量机在分类上的优势,并将新型支持向量机应用到实际问题中。
文章的最后对研究结果进行了总结,并对未来该领域发展前景进行了展望。
支持向量机;软边缘;复合核函数;惩罚因子
中国海洋大学
硕士
计算数学
刘珑龙
2010
中文
TP18
44
2011-10-31(万方平台首次上网日期,不代表论文的发表时间)