全文预览

支持向量机matlab实例及理论

上传者:科技星球 |  格式:docx  |  页数:58 |  大小:1607KB

文档介绍
  支持向量机(SVM)是90年代中期发展起来的基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获得良好统计规律的目的。Р1.1、线性分类Р    OK,在讲SVM之前,咱们必须先弄清楚一个概念:线性分类器(也可以叫做感知机,这里的机表示的是一种算法,本文第三部分、证明SVM中会详细阐述)。Р1.1.1、分类标准Р    这里我们考虑的是一个两类的分类问题,数据点用 x 来表示,这是一个 n 维向量,w^T中的T代表转置,而类别用 y 来表示,可以取 1 或者-1 ,分别代表两个不同的类。一个线性分类器就是要在 n 维的数据空间中找到一个超平面,其方程可以表示为:Р                             Р    上面给出了线性分类的定义描述,但或许读者没有想过:为何用y取1 或者-1来表示两个不同的类别呢?其实,这个1或-1的分类标准起源于logistic回归,为了完整和过渡的自然性,咱们就再来看看这个logistic回归。Р1.1.2、1或-1分类标准的起源:logistic回归Р    Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。Р    形式化表示就是Р    假设函数Р   其中x是n维特征向量,函数g就是logistic函数。Р   而的图像是Р   可以看到,将无穷映射到了(0,1)。Р    而假设函数就是特征属于y=1的概率。Р    当我们要判别一个新来的特征属于哪个类时,只需求,若大于0.5就是y=1的类,反之属于y=0类。

收藏

分享

举报
下载此文档