ML—线性回归系列(3)

ML—线性回归系列(三)

华电北风吹
天津大学认知计算与应用重点实验室
日期:2015/11/25

本文主要对岭回归(ridge regression)进行总结。
本系列的第一篇中线性回归的转化为如下的无约束优化问题
minθmi=1(y(i)θTx(i))2(0-1)
其中,x(i)Rn×1表示每个样本都是n维向量,y(i)表示样本x(i)对应的标签,θRn×1表示参数向量。与之等价的矩阵形式为
minθ||XθY||22(0-2)
其中X=(x(1),x(2),...,x(m))TRm×n,Y=(y(1),y(2),...,y(m))T.

一、岭回归
岭回归的目标表达式为
minmi=1(y(i)θTx(i))2+λ||θ||22(1-1)
岭回归出现原因:为了防止特征之间线性相关。具体参考本系列第一篇线性回归的矩阵求解部分。

二、岭回归的矩阵求解
可以使用与最小二乘矩阵解法类似的矩阵求导来求解岭回归问题
S(θ)=mi=1(y(i)θTx(i))2+λ||θ||2
ddθS(θ)=ddθS(θ)=2XT(YXθ)+2λθ=0
XTY=(XTXλI)θ
解得:
θ=(XTXλI)1XTY(2-1)
可见,岭回归与线性回归具有类似的解形式,进一步可以发现岭回归对参数θ的每个分量进行了压缩。并且是方差波动大的方向压缩更高。