监督学习概述<2>

监督学习概述<二>

原书《The Elements of Statistical Learning》,最近打算学习并翻译这本书。有兴趣的同学可以联系我。

email: 769900937@qq.com

2.5 高维空间中的局部方法

到目前为止,我们已经学习了两种预测的方法:稳定的但是偏差很大额线性模型和不太稳定但是偏差很小的KNN算法。并且看起来,对于一个足够大的训练集,我们总是可以通过KNN算法找到一个理论上的最佳的条件期望,因为我们能够找到足够大的靠近x的区域,并且对它们取平均。然后这种方法和我们的直觉在高维空间中会崩然倒塌,这个现象在《维数的灾难》一本书中提到。这个问题会有很多表现,接下来,我们会涉及到其中的一些。

对于KNN算法,其输入均匀分布在一个p维的单位的超立方体,如图2.6。
监督学习概述<2&gt
假设我们利用一个关于目标点的超立方体来获取训练集中的r比例的观察值。因为这对应于单位体积的r,因此边的长度期望为ep(r)=r1/p。在一个10维的空间中e10(0.01)=0.63e10(0.1)=0.80,然而每个输入的整个的变化范围为1.0。因此要想获取数据的1%或者10%来得到一个局部分平均值。我们必须要覆盖每个输入数据的63%或者80%的变化范围。这种情况下的邻域再也不是局部了。即使急剧减小r的大小也不会有很大的改善,因为这样的的话,我们覆盖的观察数据就会越少,造成拟合的方差也会越大。

另外一个在高维空间稀疏采样的后果所有的采样点可能都会靠近其中的一条边。考虑N个数据点均匀分布在一个以原点为中心的p-维球体重。假设我们在原点使用最近邻算法估计。从原点到最近点的距离中位值的d(p.N)=(1(1/2)1/N)1/p.........(2.24)
还存在一个更复杂的倒最邻近点的平均距离。当N=500,p=10,d(p.N)0.52, 离边界的距离很近。因此大部分数据点离取样空间的边界比任何其他的数据点更近。这会造成一个问题,就是靠近训练取样的边界会让预测更加的困难。因为这样的预测的时候相当于从外部的推断而不是内部的插值推断。

另一个维数的灾难便是取样密度和 成正比。其中p是输入空间的维数,N是取样的大小。因此,当N1=100时代表的是一个单输入的稠密的取样。然而对于一个输入空间维数为10的时候,要达到同样的额取样密度,N10=10010。因此训练数据将会稀疏的分布在高维的输入空间中。
让我们接下来构造一个均匀分布的例子。假设我们有1000个训练样本均匀分布在 。 假设X和Y的真实的关系是
Y=f(X)=e8||X||2
同时,没有任何测量误差。我们使用1-NN规则来预测测试点x0=0y0的值。用T代表训练集。我们可以按照我们之前提到的流程来计算出预测误差的期望。对取样空间中1000个点取平均值。因为这个问题是确定的,因此预测 均方误差为:

MSE(x0)===ET[f(x0)y0^]2ET[y0^ET(y0^)]2+[ET(y0^)f(x0)]2VarTy0^+Bias2(y0^).........(2.25)

图2.7诠释了这个公式的具体含义。我们将MSE拆分为我们熟悉的两部分:方差和偏差平方。这种分解方法通常很可能构造出来并且很有用,被称作biasvariancedecomposition(偏差-方差分解)。除非最临近的点是0点,否则在这个例子中 y0^将会比 小f(0),因此预测的平均值也会偏小。方差是1-NN的取样方差。在低维空间中,当N=1000时,最临近的点将会距离0点非常非常近,因此这个时候方差和偏差都会非常小。然而随着维数的增大,最近的点将会离目标点越来越远。同时,偏差和方差也会越来越大。当p=10时,超过99%的点离原点的距离大于0.5。因此当p增大时,MSE将会最终增大到1,偏差也是但是方差会开始降低。
监督学习概述<2&gt
尽管这是一个我们人为的举例,但是类似的现象发生的更普遍。很多有很多变量的函数的复杂度将会随着维数的增加而呈指数增加。因此当我们希望达到低维度时同样的精确度,我们就需要指数增加我们取样的大小。在这个例子中,这个函数是所有p个变量都相互作用的例子。
监督学习概述<2&gt
偏差项处于主导地位依赖于一些事实,但是在1-NN中并不是总是处于支配地位。例如,在函数总是和一些维数有关如图2.8所示,此时方差将会占据主导地位。
另一方面,假设Y和X的关系是线性的:
Y=XTβ+ϵ.........(2.26)
其中ϵN(0,σ2)
我们通过最小二乘法来拟合模型。
对于任意一个测试点x0,我们有y0^=x0Tβ^可以重写为
y0^=x0Tβ+Ni=1li(x0)ϵi,其中li(x0)X(XTX)1x0的第i个元素。
因为在这个模型下最小二乘的估计是无偏的。可以得到:
EPE(x0)===Ey0|x0ET(y0y0^)2Var(y0|x0)+ET[y0^ETy0^]2+[ETy0^xT0β]2σ2+ETxT0(XTX)1x0σ2+02.........(2.27)

ps:推导过程:
y0y0^=(y0xT0β)+(ETy0^y0^)+(xT0βETy0^)
U1=(y0xT0β),
U2=ETy0^y0^,
U3=xT0βETy0^

EPE(x0)===Ey0|x0ET(y0y0^)2Ey0|x0ET(U1+U2+U3)2Ey0|x0ET(U12+U22+U32+2(U1U2+U2U3+U1U3))

接下来分析每个项
Ey0|x0ETU21=Var(y0|x0)=σ2
Ey0|x0ETU22=Ey0|x0VarT(y0^)
y0^=xT0β^=xT0(β+(XTX)1XTϵ)代入:

U3====ET[xT0(β+(XTX)1XTϵ)xT0β]ET[xT0(XTX)1XTϵ]ET[xT0(XTX)1XT]ET(ϵ)0

因此,U1U3,U2U3也为0。
U1U2=(y0xT0β)(ETy0^y0^),注意到y0^y0没有任何关系。因此,ET(U1U2)=0
剩下最后的就是求Ey0|x0ETU22=Ey0|x0VarT(y0^)
考虑到E(y0^)=xT0β
VarT(y0^)====ET[y0^xT0β]2ET[x0β^xT0β]2ET[xT0(XTX)1XTϵϵTX(XTX)1x0]σ2xT0ET[(XTX)1]x0

因此得到(2.27)式。观察可以得到,由于我们的目标是非确定性的,预测误差中多了一个方差σ2。这里是无偏估计,方差取决于x0。当N很大,并且任意选择T时,可以假设E(X)=0,那么就可以得到XTXNCov(X),因此:
ps:关于推导XTXNCov(X)
X写成一个[x0;x1;x2;...xi;...xN];因此
XTX=[xT0,xT1,xT2,...xTi,...xTN][x0;x1;x2;...xi;...xN]=Ni=1xTixi
XTXNCov(x0)
Ex0EPE(x0)==Ex0xT0Cov(X)1x0σ2/N+σ2trace[Cov(X)1Cov(x0)]σ2/N+σ2σ2(p/N)+σ2.........(2.28)

在这里,我们可以看到期望EPE会随着p的增大而增大,斜率是 σ2/N。 如果N很大或者方差σ2很小,这种增长是可以忽略的(非常接近0)。通过揭露一些拟合的模型的严重的限制,我们可以避免这种维数所造成的灾难。

图2.9在两种情况下比较了1-NN算法和最小二乘算法,两者的模型都是Y=f(X)+ϵ,其中X像之前一样均匀分布,ϵN(0,1)。取样的大小是N=500。如图2.8,对于红色曲线,f(x) 和第一个坐标成正比,对于绿色曲线,成立方关系。 立方。从图2.9中可以看出,对于线性关系来说,EPE的相对关系从2开始。最小二乘方法在这种情况下是无偏的。它的EPEσ2=1稍大。而1-NN的EPE则总是比2大,同时随着维数的增加,最邻近点离目标点越来越远。在立方关系的情况下,最小二乘法是有偏的,这缓和了比率的大小。
监督学习概述<2&gt
由于依赖严格的假设,线性模型没有任何偏差,而在1-NN算法中误差可能会很大。然而,假如假设是错误的话,此时,1-NN算法可能会占据主导地位,我们将会看到在严格的线性模型和非常灵活的1-NN算法之间的模型。每一个都有它们的假设和偏差,然而这些算法依赖于这些假设可以避免高维空间中计算复杂度的指数增长。

在我们更深入的讨论之前,让我们介绍一些统计模型的概念,并且看看它们是如何用在预测的框架中。

2.6 统计模型,监督学习和函数近似

我们的目标是找到一个有效的函数f(x)^来近似表示揭示输入和输出的预测关系的函数f(x)。在2.4节的理论设置中,我们看到平方误差损失导致我们对回归函数f(x)=E(Y|X=x)有一个定量的响应。临近算法可以被看做是条件期望的直接估计。但是我们看到在两种情况下将会失败:

  • 如果输入空间的维数太高,那么临近算法将离目标点不会太近,导致很大的误差;

  • 如果已知具体的结构是存在的,将可以用来同时降低估计的偏差和方差。

我们希望对f(x)使用其他的模型,在很多情况下尤其是设计的用来克服维数问题,在这里我们将讨论一个用来将它们吸收进预测问题的框架。

2.6.1 一个关于联合分布的统计模型

假设我们的数据是从一下统计模型中产生的:
Y=f(X)+ϵ.........(2.29)
其中随机误差ϵE(ϵ)=0,并且独立于X。注意到在这个模型中,f(x)=E(Y|X=x),而且事实上条件分布Pr(Y|X)只有通过均值f(x)依赖于X
加性误差模型对于事实来说是一个非常有用的近似。对于大多数系统的输入输出(X,Y) 将不会有一个确定的关系:Y=f(X)。通常来说可能还存在其他未测量的影响y的变量,包括测量误差。加性模型假设我们可以从一个确定的模型中通过误差 捕获到ϵ这些所有的影响。

对于一些问题来说,这些确定的模型确实存在。很多机器学习中的分类问题就属于这种形式,其中响应平面可以被认为是一个在Rp中的涂色地图。训练数据包含一些地图(xi,yi)中的涂色例子,而我们的目标就是对任意一个点涂色。这里的函数就是确定的,而任意一个训练点的位置x会包含随机性。我们现在不会细究这些问题,但是将会看到这些都可以通过基于误差的模型的近似技术来处理。

在(2.29)中的误差是独立同分布的假设并不是严格必须的。但是当我们求EPE标准中的均方误差时,这种观点深深的存在于我们脑海深处。对于这样的一个模型,使用最小二乘作为模型估计的数据标准便变得非常自然。简单的修改就可以使这个模型避免这种独立性假设。例如,我们可以有Var(Y|X=x)=σ(x),这样的话,均值和方差便都和X有关系。通常条件分布可以以复杂的方式依赖于X,但是加性模型可以避免这些。

到目前为止,我们一直关注在定量的响应上。加性误差模型通常不会用在定性的输出G中,在这种情况下,目标函数p(X)是条件概率密度,可以直接用来建模。例如,对于二类的数据,假设数据从独立的0-1中产生是合理的,当求得其中一种的概率为p(X)时,另一种就为1p(X)。因此假如YG的0-1编码,那么E(Y|X=x)=p(x),同时方差也依赖于xVar(Y|X=x)=p(x)[1p(x)]

2.6.2 监督学习

在我们用统计的术语描述之前,先从机器学习的观点来讲述下函数拟合的流程。为简单我们假设误差是可加的,并且模型Y=f(X)+ϵ是一个合理的假设。监督学习试图从这些例子中学到f。收集一个观察到的数据集T=(xi,yi),i=1,...N,观察到的输入xi输入到人工系统中,其中的学习算法将会产生输出f(x)^作为输入的响应。学习算法能够修改输入输出的关系f^作为yif(xi)^原始输出和产生的输出之间差异性的响应。这个过程被称作Learning the example。然而这种情况下我们的希望就是在所有实际中遇到的输入所对应的人工的输出和真正的输出是非常接近的。

2.6.3 函数近似

上一节中提到的函数近似已经成为机器学习和神经网络领域监督学习领域的研究热点。函数近似和估计的方方面面都用到了数学和统计学中的方法。在这里,数据点(xi,yi)被看做是一个(p+1)维的欧几里得空间中的点。函数f(x)的定义域是一个p维的输入子空间,并且通过一个类似yi=f(xi)+ϵi的模型和数据联系起来。在本章为了方便我们将会假设定义域为Rp,一个p维的欧几里得空间,尽管通常输入是一个混合类型。我们的目标就是获得一个有效的f(x)的近似对所有的在Rp中某些区域的x。尽管相比学习流程,没那么迷人的是将监督学习看做一个函数近似问题极大地鼓舞了在欧几里得空间中的几何学和概率推断中的数学概念在本问题中的应用。这也是本书将要采用的方法。

很多我们将会遇到的问题都是和一系列能够修改的用来适合数据的参数θ有关。例如线性模型f(x)=xTβ中有θ=β。另外一个有效的近似可以被表示为linear basis expansions:
fθ(x)=Kk=1hk(x)θk.........(2.30)
其中,hk是输入向量x的变换或者函数集合。传统的例子是多项式和三角函数,其中hk可能是x21,x1x22,cos(x1)等等,我们也将会遇到非线性拓展,例如在神经网络中常见的sigmoid变换:
hk(x)=11+exp(xTβk).........(2.31)
我们可以像在线性模型中那样使用最小二乘法来估计fθ中的θ,通过最小化残差平方和
RSS(θ)=Ni=1(yifθ(xi))2.........(2.32)
将其作为θ的函数。这看起来是可加性错误模型的一个合理的标准。我们将我们的参数化函数看作是一个p+1维空间中的平面。当p=2时,我们很容易可视化,纵坐标就是我们的输出y,例如图2.10。噪声就在输出坐标上,因此我们可以找到一系列参数让我们的拟合平面离观察点尽可能的近,这里,度量近是通过纵坐标的残差平方和RSS(θ)的大小来衡量的。
监督学习概述<2&gt

对于线性模型我们可以通过最小化问题来得到一个简单的封闭解。在,基函数不含有任何隐藏参数的情况下,这对基函数方法也是可行的。否则,解可能就要么需要迭代方法要么需要数值最优化。

尽管最小二乘确实非常的方便,但是它并不是使用时唯一的标准,并且某些情况下,它可能没有任何作用。一个更普遍的估计原则是极大似然估计。假设我们有一个从密度为Prθ(y)中随机的取样yi,i=1,...,N。观察到的取样的对数概率为:
L(θ)=Ni=1logPrθ(yi).........(2.33)

极大似然原则假设最合理的参数θ的值是那些让观察到的样例的概率最大的值。
对于可加性模型Y=fθ(X)+ϵ,其中ϵN(0,σ2),最小二乘法和使用条件概率的极大似然概率是等价的:
Pr(Y|X,θ)=N(fθ(X),σ2).........(2.34)
尽管另外的正态性假设很严格,但结果其实是一样的。数据的对数极大似然概率是:
L(θ)=N2log(2π)Nlogσ12σ2Ni=1(yifθ(xi))2.........(2.35)
观察上式可以发现只有最后一项中包含θ,实际上就是RSS(θ)前面乘以一个负数因子。

一个更有趣的例子是对于定性输出G的回归函数Pr(G|X)的多项式似然概率。假设我们有一个模型对于X的任何一个种类都会有Pr(G=Gk|X=x)=pk,θ(x),k=1,...,K。然后对数似然概率(也被称作交叉熵cross-enropy)是
L(θ)=Ni=1logpgi,θ(xi).........(2.36)
当最大化它的时候就相当于选了一组θ的值使得数据的分布满足极大似然概率。
To Be Continued!!!