机器学习十讲——第三讲学习总结

点到平面距离:

机器学习十讲——第三讲学习总结

梯度下降法:

简介:求解无约束最优化问题的经典方法,机器学习和深度学习中应用最广泛的模型求解算法。

定义:如果实值函数g(w)a处可微且有定义,那么函数g(w)a处沿着梯度相反的方向-▽g(a)下降最快

优化问题:机器学习十讲——第三讲学习总结

更新参数:

机器学习十讲——第三讲学习总结

随机梯度下降法:

在机器学习中,优化目标和梯度具有特定结构:

机器学习十讲——第三讲学习总结

更新参数公式:

机器学习十讲——第三讲学习总结

随机梯度下降法绘制出来的图像是振动的,需要调整学习率来减小振幅,最终让它趋近于0:

机器学习十讲——第三讲学习总结

最大似然估计:

介绍:一种求解概率模型的参数方法。

概念:

机器学习十讲——第三讲学习总结

  分类:

介绍:分类是另一种典型的有监督学习问题。标签(模型预测值)y离散值

做分类(附图示):

机器学习十讲——第三讲学习总结

 线性可分训练集:机器学习十讲——第三讲学习总结

感知机:找到一条直线,将两类数据分开

支持向量机:找到一条直线,不仅将两类数据正确分类,还使得数据离直线尽量远。

逻辑回归:找到一条直线使得观察到训练集的“可能性”最大。数据离直线越远越接近于1,反之则趋近于0

训练集的矩阵表示(第二讲回顾):

机器学习十讲——第三讲学习总结

  算法详细介绍:

  感知机:

机器学习十讲——第三讲学习总结

划出一条直线,将正负分开。当出现划分错误情况(如正值在左/负值在右),就需要进行优化,优化目标简单的说就是让划分错误的那个点尽可能地离直线近,即距离越小。

优化目标介绍:

机器学习十讲——第三讲学习总结

优化目标就是L(w)函数。

感知器算法——SGD:

机器学习十讲——第三讲学习总结

  支持向量机:

间隔最大化。

机器学习十讲——第三讲学习总结

样本损失函数:

机器学习十讲——第三讲学习总结

优化目标:

机器学习十讲——第三讲学习总结

非线性:核技巧

映射trick:将数据点从二维空间映射到三维空间中,使得数据线性可分

图示:

机器学习十讲——第三讲学习总结

原本映射到高维会出现维度灾难问题,使得计算量复杂化。而支持向量机的好处在于映射到高维的时候,计算量仍是低维空间的计算量。

  逻辑回归:

赋予样本概率解释

机器学习十讲——第三讲学习总结

似然函数与负对数似然函数:

机器学习十讲——第三讲学习总结

优化目标就是NLL(w)最小值

  三种模型的损失函数对比:

感知机是蓝色线,支持向量机是绿色线,逻辑回归是红色线

机器学习十讲——第三讲学习总结

分类问题的评价指标:

机器学习十讲——第三讲学习总结

负例0可变更为-1

SKlearn分类模块介绍:

机器学习十讲——第三讲学习总结