全文预览

SVM算法(支持向量机)

上传者:似水流年 |  格式:docx  |  页数:61 |  大小:0KB

文档介绍
前面的分析,对一个数据点进行分类,当它的margin越大的时候,分类的confidence越大。对于一个包含n个点的数据集,我们可以很自然地定义它的margin为所有这n个点的margin值中最小的那个。于是,为了使得分类的confidenee高,我们希望所选择的РРhyperplane能够最大化这个margin值。Р不过这里我们Р有两个margin可以选,不过functionalmargin明显是不太适合用来最大化的一个量,因为在hyperplane固定以后,我们可以等比例地缩放w的长度和b的值,这样可以使Р得f(x)=wTx+b的值任意大,亦即functionalmarginY可以在hyperplane保持不变的情况下被取得任意大,而geometricalmargin则没有这个问题,因为除上了〃w〃这个分母,所以缩放w和b的时候Y的值是不会改变的,它只随着hyperplane的变动而变动,因此,这是更加合适的一个margin。这样一来,我们的maximummarginclassifier的目Р标函数即定义为Рmaxy~Р当然,还需要满足一些条件,根据margin的定义,我们有Рyi(wTxi+b)=Y"i>Y",i=1,^,nР其中W叩心〃,根据我们刚才的讨论,即使在超平面固定的情况下,Y”的值也可以随着〃w〃的变化而变化。由于我们的目标就是要确定超平面,因此可以把这个无关的变量固定下来,固定的方式有两种:一是固定〃w〃,当我们找到最优的7~时咗也就可以随之而固定;二是反过来固定Y,,此时〃w〃也可以根据最优的Y~得到。处于方便推导和优化的目的,我们选择第二种,令Y^=l,则我们的目标函数化为:Рmaxi/7w/7,s.t.,yi(wTxi+b)>1,i=1,^,nР通过求解这个问题,我们就可以找到一个margin最大的classifier,如下图所示,中间的红色线条是

收藏

分享

举报
下载此文档