全文预览

机器学习大作业

上传者:菩提 |  格式:docx  |  页数:25 |  大小:123KB

文档介绍
。同年,Vapnik和Cortes提出软间隔(soft margin)SVM,通过引进松弛变量纟度量数据兀的误分类(分类出现错误时乙大于 0),同时在目标函数中增加一个分量用来惩罚非零松弛变量(即代价函数),SVM 的寻优过程即是大的分隔间距和小的误差补偿之间的平衡过程;1996年,Vapnik 等人又提出支持向量回归(Support Vector Regression, SVR)的方法用于解决拟合 问题。SVR同SVM的出发点都是寻找最优超平面,但SVR的目的不是找到两 种数据的分割平面,而是找到能准确预测数据分布的平面,两者最终都转换为最 优化问题的求解;1998年,Weston等人根据SVM原理提出了用于解决多类分 类的 SVM 方法(Multi-Class Support Vector Machines, Multi-SVM),通过将多类 分类转化成二类分类,将SVM应用于多分类问题的判断:此外,在SVM算法 的基本框架下,研究者针对不同的方面提出了很多相关的改进算法。例如, Suykens 提出的最小二乘支持向量机(Least Square Support Vector Machine, LS—SVM)算法,Joachims等人提出的SVM-light,张学工提出的中心支持向量 机(Central Support Vector Machine, CSVM), Scholkoph 和 Smola 基于二次规划 提出的v-SVM等。此后,台湾大学林智仁(Lin Chih-Jen)教授等对SVM的典型应 用进行总结,并设计开发出较为完善的SVM工具包,也就是LIBSVM(A Library for Support Vector Machines)□上述改进模型中,v-SVM是一种软间隔分类器模 型,其原理是通过引进参数v,来调整支持向量数占输入数据比例的下限,以及 参数

收藏

分享

举报
下载此文档