SVM小白教程(2):拉格朗日对偶

在上一篇文章中,我们推导出了 SVM 的目标函数:

[underset{(mathbf{w},b)}{operatorname{min}} ||mathbf{w}|| \ operatorname{s.t.} y_i(mathbf{w}^Tmathbf{x_i}+b) ge delta, i=1,...,m ]

由于求解过程中,限制条件中的 (delta) 对结果不产生影响,所以简单起见我们把 (delta) 替换成 1。另外,为了之后求解的方便,我们会把原函数中的 (||mathbf{w}||) 换成 (frac{1}{2}||mathbf{w}||^2),优化前者跟优化后者,最终的结果是一致的。这样,我们就得到 SVM 最常见的目标函数:

[egin{align} &underset{(mathbf{w},b)}{operatorname{min}} frac{1}{2}mathbf{w}^2 ag{1} \ operatorname{s.t.} y_i (mathbf{w}^T & mathbf{x_i}+b) ge 1, i=1,...,m otag end{align} ]

现在,我们要开始着手来解这个函数。

拉格朗日乘子法

对于(1)式中的问题,如果限制条件是等号的话,我们是可以直接用拉格朗日乘子法求解的。而为了应对不等号的情况,研究人员提出了 KKT 条件下的拉格朗日乘子法。所谓 KKT 条件,我们可以简单地把它当作拉格朗日乘子法的进阶版,只要原优化问题满足几个特定的条件,就可以仿照拉格朗日乘子法来求解问题。(关于 KKT 条件的具体内容,博主没有仔细研究过)。

而 SVM 原问题,刚好满足这些条件。因此可以直接套用拉格朗日乘子法的流程,首先列出拉格朗日函数:

[L(mathbf w, b, mathbf alpha)=frac{1}{2}||mathbf w||^2-sum_{i=1}^nalpha_i(y_i(mathbf w^T mathbf x_i + b)-1) \ s.t. alpha_i ge 0 ag{2} ]

(注意,在 KKT 条件下,需要满足 (alpha_i ge 0)

然后,令 (frac{partial L}{partial mathbf w}=0)(frac{partial L}{partial b}=0),可以得到方程组:

[frac{partial L}{partial mathbf w}=mathbf w-sum_{i=1}^nalpha_i y_i mathbf x_i=0 ag{3} ]

[frac{partial L}{partial b}=sum_{i=1}^n alpha_i y_i=0 ag{4} ]

在约束条件是等式的情况中,我们还会根据 (frac{partial L}{partial mathbf alpha}=0) 得到另外几组方程,然后可以解出 (mathbf w)(b)

不过,由于现在约束条件是不等式,所以 (frac{partial L}{partial mathbf alpha}) 得到的是一堆不等式:

[y_i (mathbf w mathbf x_i+b)-1 ge 0 i=1,2,dots,N ]

这样是没法直接解出 (mathbf w)(b) 的。

为了让方程组的形式更加简单,我们可以联立 (2)(3)(4) 把 (mathbf w)(b) 消掉(后文有详细的推导过程):

[L(mathbf w,b, mathbf alpha)=sum_{i=1}^n alpha_i - frac{1}{2}sum_{i=1}^n sum_{j=1}^n alpha_i alpha_j y_i y_j mathbf x_j^T mathbf x_i ag{5} ]

到这一步,熟悉优化的同学应该发现,我们已经把原问题转化为拉格朗日对偶问题。换句话说,我们接下来要优化的问题就变为:

[underset{alpha}{operatorname{max}} sum_{i=1}^n alpha_i - frac{1}{2}sum_{i=1}^n sum_{j=1}^n alpha_i alpha_j y_i y_j mathbf x_j^T mathbf x_i ag{6} \ s.t. a_i ge 0, i=1,dots,m \ sum_{i=1}^malpha_i y_i=0 ]

拉格朗日对偶问题

博主刚开始接触拉格朗日对偶的时候,一直搞不懂为什么一个最小化的问题可以转换为一个最大化问题。直到看了这篇博文后,才对它有了形象的理解。所以,下面我就根据这篇博文,谈谈我对拉格朗日对偶的理解。

对偶问题

先看一个简单的线性规划问题:

[underset{x,y}{operatorname{min}} x+3y \ s.t. x+y ge 2 \ x,y ge 0 ]

要求 (x+3y) 的最小值,可以通过变换目标函数来获得:

[x+y+2y ge 2 + 2 imes 0 = 2 ]

所以 (x+3y) 的最小值是 2。

如果将问题泛化:

[underset{x,y}{operatorname{min}} px+qy ag{7} \ s.t. x+y ge 2 \ x,y ge 0 ]

同样地,通过这种拼凑的方法,我们可以将问题变换为:

[egin{align} a(x+y) &ge 2a otag \ bx &ge 0 otag\ cy &ge 0 otag\ a(x+y)+bx+cy&=(a+b)x+(a+c)y ge 2a ag{8} end{align} ]

其中,(a,b,c > 0)

(8)式对 (forall a,b,c > 0) 均成立。不管 (a+b)(a+c) 的值是多少,((a+b)x+(a+c)y) 的最小值都是 (2a)。因此,我们可以加上约束:(a+b=p)(a+c=q),这样就得到 (px+qy) 的最小值为 (2a)。需要注意的是,(2a)(px+qy) 的下界,即这个最小值对 (forall a) 都要成立,所以,需要在约束条件内求出 (a) 的最大值,才能得出 (px+qy) 的最小值。

这样一来,问题就转换为:

[egin{eqnarray} underset{a,b,c} {operatorname {max}} {2a} ag{9} \ s.t. p=a+b otag\ q = a+c otag\ a,b,c ge 0 otag end{eqnarray} ]

(9)式就是(7)式的对偶形式。

对偶对称有异曲同工之妙。所谓对偶,就是把原来的最小化问题(7)转变为最大化问题(9)。这种转化对最终结果没有影响,但却使问题更加简单(问题(9)中的限制条件都是等号,而不等号只是针对单个变量 (a,b,c),因此可以直接套用拉格朗日乘子法)。

另外,对偶分强对偶弱对偶两种。借用上面的例子,强对偶指的是 (px+qy) 的最小值就等于 (2a) 的最大值,而弱对偶则说明,(px+qy) 的最小值大于 (2a) 的最大值。SVM 属于强对偶问题。

线性规划问题的对偶问题

现在,我们把问题再上升到一般的线性规划问题:

[egin{eqnarray} underset{x in mathbb{R}^n} {operatorname{min}} c^Tx ag{10} \ s.t. Ax=b otag \ Gx le h otag end{eqnarray} ]

用同样的方法进行转换:

[egin{align} -u^TAx & =-b^Tu otag \ -v^TGx & ge -h^Tv otag \ (-u^TA-v^TG)x & ge -b^Tu-h^Tu otag end{align} ]

这样,可以得到该线性问题的对偶形式:

[underset{u in mathbb{R}^m,v in mathbb{R}^r} {operatorname{max}} -b^Tu-h^Tu ag{11} \ s.t. c= -A^Tu-G^Tv \ v > 0 ]

这种「拼凑」的转换方法可以用拉格朗日函数作为通用的方法解决。定义原函数如下:

[f(x)=c^Tx ]

引入拉格朗日函数:

[L(x,u,v)=f(x)+u^T(Ax-b)+v^T(Gx-h) ]

其中,(v>0)

由于 (Ax-b = 0)(Gx-h le 0),所以必有 (f(x) ge L(x,u,v)),换句话说,(underset{x}{operatorname{min}}{f(x)} ge underset{x}{operatorname{min}}{L(x,u,v)})。因此,求 (f(x)) 的最小值就转换为求 (L(x,u,v)) 的最小值。

[egin{align} L(x,u,v)&=(c^T+u^TA+v^TG)x-u^Tb-v^Th otag end{align} ]

(underset{x}{operatorname{min}}{L(x,u,v)})(x) 没有任何限制的前提下,是不存在最小值。因此,我们要加上约束条件:(c^T+u^TA+v^TG=0),这样,(underset{x}{operatorname{min}}{L(x,u,v)}=-u^Tb-v^Th)。如此一来,我们又把原问题转换到(11)中的对偶问题上了。

二次规划问题的对偶问题

由于 SVM 的目标函数是一个二次规划问题(带有平方项),因此我们最后再来看一个二次规划的优化问题。

假设有如下二次规划问题:

[egin{equation} underset{x}{operatorname{min}} {frac{1}{2}x^TQx+c^Tx} otag \ s.t. Ax=b otag \ x ge 0 end{equation} ]

其中,(Q>0)(保证有最小值)。

按照线性规划问题的思路,构造拉格朗日函数(注意,构造出来的 (L(x,u,v)) 必须小于等于原函数 (frac{1}{2}x^TQx+c^Tx)):

[egin{equation} L(x,u,v)=frac{1}{2}x^TQx+c^Tx-u^Tx+v^T(Ax-b) otag \ =frac{1}{2}x^TQx+(c+v^TA-u)^Tx+v^Tb otag end{equation} ]

由于二次函数 (ax^2+bx+c) 的最小值在 (x=-frac{b}{2a}) 处取得,因此可以求得函数 (L) 的最小值:

[egin{equation} underset{x}{operatorname{min}} L(x,u,v)=-frac{1}{2}(c-u+A^Tv)^TQ^{-1}(c-u+A^Tv)-b^Tv end{equation} ]

这样一来,我们就求得原问题的拉格朗日对偶问题:

[egin{equation} underset{u,v}{operatorname{max}}-frac{1}{2}(c-u+A^Tv)^TQ^{-1}(c-u+A^Tv)-b^Tv otag \ s.t. u>0 end{equation} ]

拉格朗日对偶问题

现在总结一下拉格朗日对偶问题的基本「套路」。

假设原问题为:

[egin{equation} underset{x}{operatorname{min}}f(x) otag \ s.t. h_i(x) le 0, i=1,dots,m otag \ l_i(x)=0, j=1,dots,r otag end{equation} ]

则拉格朗日原始问题为:

[L(x,u,v)=f(x)+sum_{i=1}^m {u_i h_i(x)}+sum_{j=1}^r v_j l_j(x) ]

其中,(u_i>0)

之后,我们求出 (underset{x}{operatorname{min}}L(x,u,v)=g(u,v)),将问题转换为对偶问题:

[egin{equation} underset{u,v}{operatorname{max}} g(u,v) otag \ s.t. u ge 0 otag end{equation} ]

教材上通常把拉格朗日原始问题表示为 (underset{x}{operatorname{min}}underset{u,v}{operatorname{max}}L(x,u,v)),而对偶问题表示成 (underset{u,v}{operatorname{max}}underset{x}{operatorname{min}}L(x,u,v))。它们之间存在如下关系:

[underset{x}{operatorname{min}}underset{u,v}{operatorname{max}}L(x,u,v) ge underset{u,v}{operatorname{max}}underset{x}{operatorname{min}}L(x,u,v) ]

SVM的对偶问题

现在看回 SVM。我们将约束条件表述成 (y_i (mathbf{w}^Tmathbf{x_i}+b) -1 ge 0, i=1, dots ,m),然后,按照上面的「套路」,表示出拉格朗日原始问题:

[egin{align} L(mathbf{w},b,alpha)= & frac{1}{2}mathbf{w}^2-sum_{i=1}^m{alpha_i}[y_i(mathbf{w}^Tmathbf{x_i}+b)-1] ag{12} \ s.t. alpha_i ge & 0, i=1, dots, m otag end{align} ]

下面要求出 (L(mathbf{w},b,alpha)) 关于 (mathbf{w})(b) 的最小值,这里可以直接通过偏导求得:

[ abla_mathbf{w} L=mathbf{w}-sum_{i=1}^m alpha_iy_i mathbf{x}_i=0 ag{13} ]

[frac{partial L}{partial b}=-sum_{i=1}^malpha_i y_i=0 ag{14} ]

由(13)式解得:

[egin{align} mathbf{w}=sum_{i=1}^m alpha_i y_i mathbf{x}_i ag{15} end{align} ]

(15)式代入(12)式得到:

[W(alpha,b)=sum_{i=1}^malpha_i-frac{1}{2}sum_{i=1}^msum_{j=1}^malpha_i alpha_j y_i y_j mathbf{x}_i mathbf{x}_j-bsum_{i=1}^m alpha_i y_i ag{16} ]

而(14)式已经表明:(sum_{i=1}^malpha_i y_i=0),所以(16)式化简为:

[W(alpha)=sum_{i=1}^malpha_i-frac{1}{2}sum_{i=1}^msum_{j=1}^malpha_i alpha_j y_i y_j mathbf{x}_i mathbf{x}_j ag{17} ]

(17)式就是最终版本的对偶形式了(上文的 (6) 式其实也是这样推出来的)。自此,我们得出 SVM 的拉格朗日对偶问题:

[underset{alpha}{operatorname{max}} W(alpha) \ s.t. a_i ge 0, i=1,dots,m \ sum_{i=1}^malpha_i y_i=0 ]

解出 (mathbf alpha) 后,就可以根据 (15) 式解出 (mathbf w),然后根据超平面的间隔求出 (b)

当然,这个对偶形式的优化问题依然不是那么容易解的,研究人员提出了一种 SMO 算法,可以快速地求解 (mathbf alpha)。不过算法的具体内容,本文就不继续展开了。

参考