《Adam 那么棒,为什么还对 SGD 念念不忘 (3)—— 优化算法的选择与使用策略》
在前面两篇文章中,我们用一个框架梳理了各大优化算法,并且指出了以Adam为代表的自适应学习率优化算法可能存在的问题。那么,在实践中我们应该如何选择呢?
本文介绍Adam+SGD的组合策略,以及一些比较有用的tricks.
回顾前文:
不同优化算法的核心差异:下降方向
从第一篇的框架中我们看到,不同优化算法最核心的区别,就是第三步所执行的下降方向:
这个式子中,前半部分是实际的学习率(也即下降步长),后半部分是实际的下降方向。SGD算法的下降方向就是该位置的梯度方向的反方向,带一阶动量的SGD的下降方向则是该位置的一阶动量方向。自适应学习率类优化算法为每个参数设定了不同的学习率,在不同维度上设定不同步长,因此其下降方向是缩放过(scaled)的一阶动量方向。
由于下降方向的不同,可能导致不同算法到达完全不同的局部最优点。An empirical analysis of the optimization of deep network loss surfaces 这篇论文中做了一个有趣的实验,他们把目标函数值和相应的参数形成的超平面映射到一个三维空间,这样我们可以直观地看到各个算法是如何寻找超平面上的最低点的。
上图是论文的实验结果,横纵坐标表示降维后的特征空间,区域颜色则表示目标函数值的变化,红色是高原,蓝色是洼地。他们做的是配对儿实验,让两个算法从同一个初始化位置开始出发,然后对比优化的结果。可以看到,几乎任何两个算法都走到了不同的洼地,他们中间往往隔了一个很高的高原。这就说明,不同算法在高原的时候,选择了不同的下降方向。
Adam+SGD 组合策略
正是在每一个十字路口的选择,决定了你的归宿。如果上天能够给我一个再来一次的机会,我会对那个女孩子说:SGD!
不同优化算法的优劣依然是未有定论的争议话题。据我在paper和各类社区看到的反馈,主流的观点认为:Adam等自适应学习率算法对于稀疏数据具有优势,且收敛速度很快;但精调参数的SGD(+Momentum)往往能够取得更好的最终结果。
那么我们就会想到,可不可以把这两者结合起来,先用Adam快速下降,再用SGD调优,一举两得?思路简单,但里面有两个技术问题:
- 什么时候切换优化算法?——如果切换太晚,Adam可能已经跑到自己的盆地里去了,SGD再怎么好也跑不出来了。
- 切换算法以后用什么样的学习率?——Adam用的是自适应学习率,依赖的是二阶动量的累积,SGD接着训练的话,用什么样的学习率?
上一篇中提到的论文 Improving Generalization Performance by Switching from Adam to SGD 提出了解决这两个问题的思路。
首先来看第二个问题,切换之后用什么样的学习率。Adam的下降方向是
而SGD的下降方向是
.
必定可以分解为
所在方向及其正交方向上的两个方向之和,那么其在
方向上的投影就意味着SGD在Adam算法决定的下降方向上前进的距离,而在
的正交方向上的投影是 SGD 在自己选择的修正方向上前进的距离。
如果SGD要走完Adam未走完的路,那就首先要接过Adam的大旗——沿着 方向走一步,而后在沿着其正交方向走相应的一步。
这样我们就知道该如何确定SGD的步长(学习率)了——SGD在Adam下降方向上的正交投影,应该正好等于Adam的下降方向(含步长)。也即:
解这个方程,我们就可以得到接续进行SGD的学习率:
为了减少噪声影响,作者使用移动平均值来修正对学习率的估计:
这里直接复用了Adam的 参数。
然后来看第一个问题,何时进行算法的切换。
作者的回答也很简单,那就是当 SGD的相应学习率的移动平均值基本不变的时候,即:
. 每次迭代玩都计算一下SGD接班人的相应学习率,如果发现基本稳定了,那就SGD以
为学习率接班前进。
优化算法的常用tricks
最后,分享一些在优化算法的选择和使用方面的一些tricks。
- 首先,各大算法孰优孰劣并无定论。如果是刚入门,优先考虑SGD+Nesterov Momentum或者Adam.(Standford 231n : The two recommended updates to use are either SGD+Nesterov Momentum or Adam)
- 选择你熟悉的算法——这样你可以更加熟练地利用你的经验进行调参。
- 充分了解你的数据——如果模型是非常稀疏的,那么优先考虑自适应学习率的算法。
- 根据你的需求来选择——在模型设计实验过程中,要快速验证新模型的效果,可以先用Adam进行快速实验优化;在模型上线或者结果发布前,可以用精调的SGD进行模型的极致优化。
- 先用小数据集进行实验。有论文研究指出,随机梯度下降算法的收敛速度和数据集的大小的关系不大。(The mathematics of stochastic gradient descent are amazingly independent of the training set size. In particular, the asymptotic SGD convergence rates are independent from the sample size. [2])因此可以先用一个具有代表性的小数据集进行实验,测试一下最好的优化算法,并通过参数搜索来寻找最优的训练参数。
- 考虑不同算法的组合。先用Adam进行快速下降,而后再换到SGD进行充分的调优。切换策略可以参考本文介绍的方法。
- 数据集一定要充分的打散(shuffle)。这样在使用自适应学习率算法的时候,可以避免某些特征集中出现,而导致的有时学习过度、有时学习不足,使得下降方向出现偏差的问题。
- 训练过程中持续监控训练数据和验证数据上的目标函数值以及精度或者AUC等指标的变化情况。对训练数据的监控是要保证模型进行了充分的训练——下降方向正确,且学习率足够高;对验证数据的监控是为了避免出现过拟合。
- 制定一个合适的学习率衰减策略。可以使用定期衰减策略,比如每过多少个epoch就衰减一次;或者利用精度或者AUC等性能指标来监控,当测试集上的指标不变或者下跌时,就降低学习率。
这里只列举出一些在优化算法方面的trick,如有遗漏,欢迎各位知友在评论中补充,我将持续更新此文。提前致谢!
神经网络模型的设计和训练要复杂得多,initialization, activation, normalization 等等无不是四两拨千斤,这些方面的技巧我再慢慢写,欢迎关注我的知乎专栏和微信公众号(Julius-AI),一起交流学习。
参考文献:
[1] CS231n Convolutional Neural Networks for Visual Recognition
[2] Stochastic Gradient Descent Tricks.
本系列目录:
Adam那么棒,为什么还对SGD念念不忘 (1) —— 一个框架看懂优化算法
Adam那么棒,为什么还对SGD念念不忘 (2)—— Adam的两宗罪
Adam那么棒,为什么还对SGD念念不忘 (3)—— 优化算法的选择与使用策略
————————————————————
行有所思,学有所得,陋鄙之言,请多指教。
欢迎关注我的微信公众号 Julius-AI
我就想敲个回车然后去刷知乎,不想中间折腾一次换优化算法。
我就想敲个回车然后去刷知乎,不想中间折腾一次换优化算法。
哈哈,可以可以。敲个回车点个赞,然后去睡觉。
去年开始就一直先用 Adam 快速下降,然后换 sgd,想着这么干的人应该挺多的,没想到这里面还有这么多讲究,学习了。
总结的思路很清晰啊,给楼主点个赞!
请教一下,文章中的稀疏数据和模型稀疏指的是一个东西吗?它们具体的含义是什么?
数据稀疏主要指的是数据特征的稀疏性,高维特征中仅有少数非零特征;模型稀疏主要指的是模型参数的稀疏性,高维参数中仅有少数非零参数。
那给定一批数据,如何判断数据的稀疏性呢?还是不知道
全是干货,讲的也很好,给楼主点赞
谢谢鼓励!
扫了一眼文章, 对于何时进行算法的切换那块, 作者只是说有效, 也没给出任何数学上的说明...
是的,这是那篇论文最主要的一个缺陷,这方面值得进一步研究
简单易懂。谢谢
楼主你好,我能不能理解为 adam 的缺陷主要在于自动调整学习率这一块,而 SGD + 动量仍是必要且优于单纯的 SGD 的呢? 另外,请问为什么 adam 适合稀疏数据呀?
根据 adam 的公式 当特征稀疏时 对应的学习率会大 当特征稠密时 对应的学习率会小
请问 adam 的公式不是针对每个参数 w 的梯度计算的吗?
对呀 就是对应的参数 w 当某维特征稀疏时 该特征对应的参数 w 的学习率会大
楼主有做过这方面个实验吗,这个转变的参数要在运行的时候获取的吧,还是估算了一下
同问
学长,你说的稀疏数据指的是 input 里面有很多 feature 是经过 onehot 处理过的吗?深度学习本身就不擅长学习 onehot 处理过后的特征的
又是一个清华大学的学子....
thanks
受教了,点赞~
切换之后用什么样的学习率这里不理解的是,Adam 对不同参数用不同学习率,SGD 却是用同一个学习率,那么这种切换后,SGD 也要对不同参数用不同学习率吗?
很棒谢谢博主总结分享
请问博主学习的源头是哪里呀。是看了一些知识再总结到知乎上的么?
“Adam 等自适应学习率算法对于稀疏数据具有优势”。 作者可以解释一下么? 我不是很能理解 “稀疏数据”,以及为什么 adam 对于稀疏数据具有优势。
前不久看了一篇文章,关于 sgd 过程中构造势函数来证明它包含隐式正则这么一个东西,貌似证明了在训练时间充足的情况下,sgd 会以马氏链的方式收敛到全局最优解,并不怕陷入局部最优解 0 0 想想好像有道理,但是又看不太懂,坐等题主带飞。
请问切换后的 sgd 可以是带动量的 sgd 吗?还是就是裸的 sgd?
全文完