SVM(支持向量机)(一)

时间:2022-11-09 15:47:07

(整理自AndrewNG的课件,转载请注明。整理者:华科小涛@http://www.cnblogs.com/hust-ghtao/

SVM(Support Vector Machines)系列会循序渐进地给大家讲解支持向量机,内容有点多,打算分四篇博文介绍。SVM是最好的有监督学习算法之一,它有很多忠实的fans,执着地认为它就是最好的。为了讲述SVM,我们从线性可分数据开始(后来会去掉线性可分的约束),引出Margin(间隔)的概念;接下来会讨论optimal margin classifier(最忧间隔分类器),过渡到拉格朗日的对偶问题;我们还会介绍kernels(核函数),通过它SVM可以解决高维问题(甚至是无限维);最后我们会介绍SMO算法,这是实现SVM的有效算法。

1 函数间隔(function margin)和几何间隔(geometric margin)

1.1直观理解

为了引出间隔的概念,我们先来回顾一下logistic 回归,Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。

假设函数:

SVM(支持向量机)(一),其中SVM(支持向量机)(一)SVM(支持向量机)(一)的特征向量,SVM(支持向量机)(一)是logistic函数。SVM(支持向量机)(一) 的函数图像如下:

SVM(支持向量机)(一) ,可以看到SVM(支持向量机)(一)SVM(支持向量机)(一)从负无穷到正无穷映射到SVM(支持向量机)(一)

我们令:SVM(支持向量机)(一)表示输入变量被映射为y=1的概率。

对于输入变量SVM(支持向量机)(一),如果SVM(支持向量机)(一),也就是SVM(支持向量机)(一),我们则判断y=1。否则,判断y=0。

考虑一个y=1对应的样本,SVM(支持向量机)(一)越大,则SVM(支持向量机)(一)越大,越接近1,那么我就对我们的判断更加自信,换言之,y=1的置信度越大。直觉上理解,要想让我们的Logistic回归置信度很高,应该满足以下下条件:

SVM(支持向量机)(一)SVM(支持向量机)(一)

这里SVM(支持向量机)(一)是通过训练集学习出来的边界条件,也就是对于任意的输入变量,SVM(支持向量机)(一)的值离边界都很远,我们认为这是一个很好的分类器,我们就将这个差值定义为函数间隔。

为了更好的理解,请看下图:

SVM(支持向量机)(一) ,图中的直线是通过算法学习出的判决边界,新输入三点A、B、C,要求我们对其进行分类,显然都可以进行分类。但是若要问你那个点被正确分类的置信度最大,是A,因为它离边界的距离最远,B次之,我们对C的分类的置信度是最低的。这里的点到判决直线的距离就是几何间隔。

1.2 符号定义

上面只是直观地介绍了函数间隔和几何间隔,为了更加正式地定义间隔的概念,我们需要重新定义一下有关的Notation:

在明确一下需要解决的问题:对于二值分类问题,输入变量SVM(支持向量机)(一),目标变量是类的标号SVM(支持向量机)(一),确定线性分类器。与Logistic回归不同,我们用SVM(支持向量机)(一)表示类别的标号,用SVM(支持向量机)(一)表示分类器:SVM(支持向量机)(一),其中SVM(支持向量机)(一),其中

SVM(支持向量机)(一) ,对于给定的通过这样的假设函数,输出变量就是1或-1,而省略了Logistic回归计算概率的中间过程。

1.3 正式定义

对于一个给定的训练样本SVM(支持向量机)(一),我们定义SVM(支持向量机)(一)的函数间隔:SVM(支持向量机)(一)

SVM(支持向量机)(一)时,为了使函数间隔尽量大,SVM(支持向量机)(一)要为正且尽量大;当SVM(支持向量机)(一)时,为了使函数间隔尽量大,SVM(支持向量机)(一)要为负且尽量小。

另外,对于一个输入样本,若SVM(支持向量机)(一),我们认为分类正确。

我们刚才定义的函数价格是针对单个样本的,现在定义对于整个训练集的函数间隔:

SVM(支持向量机)(一) ,就是距离判决边界最近的点对应的函数间隔。

那我们用函数间隔来衡量线性分类器的性能怎么样?假如我们的分类面为SVM(支持向量机)(一),那么把SVM(支持向量机)(一)缩放任意倍数,分类面不会发生变化,但函数间隔却发生了变化。例如:SVM(支持向量机)(一),分类面仍为为SVM(支持向量机)(一),但函数间隔却变为SVM(支持向量机)(一),扩大了2倍,所以用函数间隔来衡量分类器并不合理。为此引入几何间隔的概念。

先看下图:

SVM(支持向量机)(一) ,样本点的几何间隔就是样本点到分类面(分类线)的几何距离,如图中线段AB。

求解AB乃简单的几何问题:已知SVM(支持向量机)(一),用SVM(支持向量机)(一)表示几何间隔,w是分类面的法向量,则以求得B点SVM(支持向量机)(一),又因为B点在分类面上,满足方程:SVM(支持向量机)(一),所以有:

SVM(支持向量机)(一)

解方程得到:

SVM(支持向量机)(一)

这是对于SVM(支持向量机)(一)的情况,对于SVM(支持向量机)(一)我们得到

SVM(支持向量机)(一),写到一起:

SVM(支持向量机)(一)

注意两点:(1)当SVM(支持向量机)(一)时,几何间隔和函数间隔相等;

(2)等比缩放SVM(支持向量机)(一),几何间隔不变。

同样定义对与整个训练集的集合间隔:

SVM(支持向量机)(一) ,就是距离判决边界最近的点对应的几何间隔。

2 最优间隔分类器(The optimal margin classifier)

对于给定的样本集,我们假设其是线性可分的,就是可以找到合适的超平面(hyperplane),将正类和负类正确的分开。我们如何找到这个超平面,从而使对于整个训练集的几何间隔最大,则优化问题可描述如下:

SVM(支持向量机)(一) ,目标函数是使几何间隔最大化,约束为全局的几何间隔应该是所有样本几何间隔中最小的,SVM(支持向量机)(一)使

SVM(支持向量机)(一)的值为几何间隔。到此分类器的模型已经确定,就差求参数SVM(支持向量机)(一)了。

但是有点问题,SVM(支持向量机)(一)是个非凸的约束,不利于用现有的工具求解,需要将此约束转化一下,于是有了如下形式:

SVM(支持向量机)(一) ,就是将目标函数和约束都转换成了关于函数间隔的,但注意这只是形式上的转换,我们的目的还是最大几何间隔。

约束是凸约束啦,糟糕,目标函数又非凸啦,那就再转换一下。假如我们求得了SVM(支持向量机)(一),和对应的几何间隔SVM(支持向量机)(一),我们缩放SVM(支持向量机)(一)不会改变分类面和几何间隔,就是说对分类性能没有影响。那我们就可以调整SVM(支持向量机)(一),令函数间隔SVM(支持向量机)(一),不会影响计算结果,目标函数

SVM(支持向量机)(一) ,使目标函数最大化等价于使SVM(支持向量机)(一)最小化,所以将问题转化为:

SVM(支持向量机)(一) 。这就是最优间隔分类器的最终形式。目标函数和约束都是凸函数啦,可以利用QP软件来求解啦。

总结一下:这部分的思路还是比较清楚,为了引出间隔的概念,先回顾了Logistic回归,并给了函数间隔和几何间隔的概念。以几何间隔为目标函数学习分类面,给出最优分类器的基本形式,但不利于求解,所以经过两部形式转换,将目标和约束都转换成凸函数,可用QP求解。注意,这不是我们的终极目的,接下来我们还会介绍更优的算法来求解最优间隔分类器的问题。