coursera机器学习技法札记(1-4)——Support Vector Machine
1 Linear Support Vector Machine
1.1 Coursera Introduction
本门课程主要内容是围绕特征转换进行的,并包括三种主要的思想:
(1)怎样使用数字的特征并控制其复杂度:该角度启发了SVM模型。
(2)怎样构建并混合使用具有预测能力的特征:启发了adaboost模型。
(3)发现并利用潜在的特征:启发了Deep Learning模型。
1.2 Large Margin Separating Hyperplane
最大间隔的目标是,使得最靠近划分数据集的超平面的点到超平面的距离最大,同时保证超平面能正确划分所有点。即:
1.3 Standard Large-Margin Problem
首先计算
同时,根据条件限制,我们有
同时我们可以注意到,对
鉴于约束条件难解,我们在不改变最优解的条件下放宽约束:
这样做不改变最优解的原因是,当存在
最后,我们将优化目标去绝对值,转换为对偶问题,并加上常数方便以后的运算:
1.4 Support Vector Machine
以上的优化目标可以用二次规划
在此将b作为w_0加入 w后对照使用即可。
1.5 Reason behind Large-Margin Hyperplane
本节叙述了SVM能工作的理论基础。可以从优化目标内看出,SVM的目标是在限制
从VC维的角度来看,由于限制了最大边际至少大于1,因此使得一些能被PLA打散的数据不能被SVM打散,导致其VC维降低。
2 Dual Support Vector Machine
2.1 Motivation of Dual SVM
由于我们希望SVM能进行非线性划分,而通过多项式特征转换进行非线性划分会导致大量的VC维,因此我们希望找到一种方法使得其复杂度能与多项式特征个数无关。
本节后半部分介绍了用拉格朗日乘子来解带约束的优化问题,并解释了拉格朗日乘子的工作原理。
2.2 Largrange Dual SVM
我们希望将原问题转化为对偶问题:
当满足KKT条件时不等号可以化为等号,推导过程如下:
对上式中最小化部分的
对上式中最小化部分的w求导,并使结果等于0得到结果:
将这两者分别带入优化目标公式中可以得到对偶问题的优化目标公式:
另外,KKT的条件是:
(1)满足原问题的约束;
(2)拉格朗日乘子不小于0(在上式中写为
(3)对偶问题的各变量(即
(4)拉格朗日项(即拉格朗日乘子乘以约束)均为0(要么拉格朗日乘子为0,要么约束项等于0);
可以看出,在以上的推导、转换的过程中已经满足了KKT的全部条件,因此可以判定能转化为对偶问题。
2.3 Solving Dual SVM
我们可以将上节的最优化目标增加符号后转换为最小化优化问题,并利用二次规划解
当解得
来解得
来解得
2.4 Message behind Dual SVM
2.4.1 SVM与PLA的比较
可以发现,SVM与PLA在对
2.4.2 原始SVM与对偶SVM的比较
原始SVM是通过拉伸
但需要注意的是,对偶问题并没有使得计算复杂度与特征数量完全独立,因为在求对偶问题的矩阵时,
另外注意到的一点是,在边界上的点未必是支撑向量,因为它的
3 Kernel Support Vector Machine
3.1 Kernel Trick
在SVM的对偶问题中,计算
因此,只要有关
其中
3.2 Polynomial Kernel
对核函数的计算进行进一步简化,以二次核函数为例,我们设中间一次项系数为2,代表着我们对高次空间
可以看到,我们再一次简化了计算。将该方法扩展至高次,并添加系数以控制伸缩程度:
这样,计算资源再一次得到了缩减,并且可以通过系数来控制伸缩程度。这种放缩的方法本质上对应着距离定义的变化。
3.3 Gaussian Kernel
我们可以利用高斯函数作为核函数,即:
由于高斯函数可以通过泰勒展开成为无限高次的多项式组合,因此高斯核代表了无限高次的特征转化。
但需要注意的是,
3.4 Comparison of Kernels
本节对几个kernel做了对比。
(1)线性SVM的好处是用原始问题求解速度快,并且不用担心过拟合问题,缺点是不能解决非线性数据分类。
(2)多次核的好处是可以解决非线性分类问题,但参数多难以选择,并且在次数高的时候得到的核的值要么很大,要么逼近0,因此在低阶的时候可以考虑使用多次核。同时,当次数很低,例如是2或是3的时候,或许直接构造出多次特征空间然后用线性SVM的原始问题求解可能会更快。
(3)高斯核的好处在于非常强大,并且参数少。缺点在于计算复杂,容易过拟合。
另外,可以将核函数看成是两个向量的相似度,但是由于核的出处是内积,因此如果要构造新的核,需要在一定程度上满足内积的特点:
(1)对称性,所定义的核必须满足两个向量交换位置值不变。
(2)所有样本两两之间相互使用核函数进行计算所得到的矩阵是半正定的。
4 Soft-Margin Support Vector Machine
4.1 Motivation and Primal Problem
我们在原优化目标的基础上加入容忍错误的条目并使错误更轻成为优化目标之一:
其中,
4.2 Dual Problem
我们按照原来的hard-SVM的方法同样来推导soft-SVM。首先通过拉格朗日乘子将问题转化为min-max问题,然后利用KKT条件转化为max-min问题,在这里注意到的是,设条件
其中仅第二行的条件有所区别,原因是新加入条件
4.3 Message behind Soft-Margin SVM
注意到在最后求解
可以看到,我们必须令
解出
4.4 Model Selection
选择最好模型参数的方法是利用验证集,同时,SVM还有一个非常有意思的理论可以在某种程度上减少我们验证的次数。
在交叉测试的留一法中,如果被选中作为测试点的样本是非支持向量,则该点的测试结果一定是正确,同时如果把它放进训练集再换另一个非支持向量出来测试,结果同样是正确。而如果把支持向量作为测试样本,结果未必正确。因此,SVM的误差上限是支持向量数量除以样本总量。
需要注意的是,由于仅仅是误差上限,因此常常用来排除“错误答案”。