支持向量机的分类思想

电子说

1.3w人已加入

描述

前言

支持向量机是一种经典的机器学习算法,在小样本数据集的情况下有非常广的应用,我觉得,不懂支持向量机不算是入门机器学习。本篇循序渐进的讲解了支持向量机的分类思想,希望对您有帮助。

目录

1.  函数间隔和几何间隔

2.  支持向量机的分类思想

3.  总结

1. 函数间隔和几何间隔

为了能够更好的阐述支持向量机的分类思想,需要理解函数间隔和几何间隔的定义。

1. 点到超平面的距离

假设超平面方程:

机器学习

机器学习到平面的距离:

机器学习

机器学习

由上式可得:机器学习没有分类信息,而函数间隔和几何间隔不仅包含了距离信息,还包含了分类信息。

2. 函数间隔和几何间隔

对于给定的训练数据集T,正样本和负样本分别为+1和-1,我们对式(1.1)稍微进行了修改:

(1).  点到平面的距离不作规范化处理,得:

机器学习

(2).  去掉绝对值符号,并乘以标记结果y0,得:

机器学习

d2表达式就是函数间隔的定义,有两层含义:大小表示点P0到超平面的距离,正负表示点P0是否正确分类,若d<0,分类错误;反之,则分类正确。

因此,我们定义点到超平面的函数间隔为:

机器学习

接着定义训练数据集T的函数间隔是所有样本点(xi,yi)的函数间隔的最小值,即:

机器学习

其中,

机器学习

但是,若成比例的增加超平面参数w和b,超平面没有改变,但是函数间隔却成比例的增加了,这是不符合理论的,因此,需要对函数间隔进行规范化,得:

机器学习

(1.7)式就是几何间隔的定义,几何间隔的值是确定的。

2.  支持向量机的分类思想

1.  感知机和logistic回归的分类思想

感知机的损失函数为所有误分类点到超平面的距离之和:

机器学习

无误分类点时,损失函数为0,满足模型分类条件的超平面有无数个,如下图:

机器学习

初始超平面为l1,误分类点为红色框,最小化式(2.1)有无穷多个满足损失函数为0的超平面,如上图的l2~ln,然而,最佳分类超平面只有一个,即支持向量机所对应的超平面。

假设logistic回归的模型是机器学习,logistic回归的损失函数:

机器学习

简单分析(2.2)式的分类思想:

(1).  当yi=1时,损失函数简化为:

机器学习

若要使损失函数机器学习越小越好,则xi的值越大越好,如下图:

机器学习

图2.1

机器学习往箭头方向移动时,损失函数机器学习逐渐变小。

(2).  当yi=0时,损失函数简化为:

机器学习

若要使损失函数机器学习越小越好,则xi的值越小越好,如下图:

机器学习

当往箭头方向移动时,损失函数机器学习逐渐变小。

2. 支持向量机的分类思想

支持向量机结合了感知机和logistic回归分类思想,假设训练样本点(xi,yi)到超平面H的几何间隔为γ(γ>0),由上节定义可知,几何间隔是点到超平面最短的距离,如下图的红色直线:

机器学习

用logisitic回归模型分析几何间隔:

机器学习

因此,当γ越大时,损失函数越小,结果为正样本的概率也越大。

因此,感知机的分类思想是最大化点到超平面的几何间隔,这个问题可以表示为下面的约束最优化问题:

机器学习

根据几何间隔和函数间隔的关系,得几何间隔的约束最优化问题:

机器学习

函数间隔是样本点到超平面的最短距离,因此,令函数间隔为常数1,那么其他样本点到超平面的距离都大于1,且最大化机器学习和最小化机器学习是等价的。于是就得到下面的最优化问题:

机器学习

由(2.8)式和(2.9)式,解得最优解w*,b*,易知最优超平面到正负样本的几何间隔相等(请理解几何间隔的含义,然后仔细回想整个分类过程,就会得到这个结论)。

3. 总结

本文结合了感知机和logistic回归的分类思想来推导支持向量机的最优化问题,即最大间隔分离超平面。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分