2024/06/04
现在很多深度网络都优先推荐使用Adam做优化算法,我也一直使用,但是对它的参数一知半解,对它的特性也只是略有耳闻,今天我终于花时间看了一下论文和网上的资料。整理如下。
Adam是从2个算法脱胎而来的:AdaGrad和RMSProp,它集合了2个算法的主要优点,同时也做了自己的一些创新,大概有这么几个卖点:
Adam的伪代码其实很好理解,贴图如下:来自原文
从while循环往下看,第一行是更新step,
第二行是计算梯度,
第三行计算一阶矩的估计,即mean均值
第四行计算二阶距的估计,即variance,和方差类似,都是二阶距的一种。
第五、六行则是对mean和var进行校正,因为mean和var的初始值为0,所以它们会向0偏置,这样处理后会减少这种偏置影响。
第七行是梯度下降。注意alpha后的梯度是用一阶距和二阶距估计的。
为什么这么设计呢?Andrew Ng在他的公开课中给出了他的解释,他认为Adam其实可以看做是Momentum和RMSProp算法的结合。
其中V_dw和V_db对应上面的mt,Ng喜欢把w和b分开写,其实他们都是参数。
如上面Ng画的那样,Momentum通过对梯度mean的估计,使得梯度在纵向上的正负步长逐步抵消,横向上的步长逐步累积,从而减少了震荡,加快了学习速率。
可以认为:对于mean的这种估计,其实是从噪音中提取到了有效信号,因为信号的方向在一段时间内是不会变的。同时抵消了噪音,比如白噪音,它的均值为0,把多个白噪音累加后,它们是正负相互抵消的
当然实际情况噪音可能会非常复杂,如果步长太大,或者衰减太小,还是会出现震荡甚至发散的情况。
RMSProp要解决的问题和Momentum类似,但是它是从二阶距入手的。
上图中的S_dw对应Adam中的vt。它的思路是这样的,对于波动比较大的梯度,它的方差肯定是很大的,所以它用梯度去除以二阶距的开方,作为梯度下降的梯度,从而也使得它在纵轴上的步长减小了,同时相对的增加了横轴的步长。
这个也是mt和vt的设计来源。同时因为mt和vt涉及了所有历史梯度信息,所以他们都能较好处理梯度稀疏的情况。
Adam的改进主要体现在2个地方,即伪代码第五、六行的偏置修正,和第七行的梯度计算。
第5、6行可以这样简单理解:因为m0和v0初始为0,所以开始阶段得到的m和v肯定是偏向0的,所以我需要把他们的绝对值调大些才好。假设beta1=0.5,t=1,那么调整后,m=m / 0.5=2m,这样就把m从0拉了回来。
当然了这背后是有理论依据的,有兴趣的同学可以去看看论文,推导也不难。
其实最关键的就是第7行了。首先在没有噪音的情况下,m/sqrt(v) 约等于+/- 1,所以步长的上限基本就由alpha决定了。当t比较小的时候,beta1和beta2也会有一些影响,因为此时m、v还是有偏的,需要在5、6行用beta1、beta2做些调整。原文指出:
$$设步长 \Delta_t=\alpha \cdot \hat{m}_t/\sqrt{\hat{v}_t}$$
当1 - beta1 > sqrt(1 - beta2)时,
$$\Delta_t \le \alpha \cdot (1 - \beta_1)/\sqrt{1 - \beta_2} $$
其他时候,
$$\Delta_t \le \alpha $$
所以,正是由于采用了m/sqrt(v)的形式,梯度本身的大小被消除了,假设你在目标函数上乘以k,那么这个k会同时出现在分子分母上,从而在梯度更新时被消除了。
根据原文作者的意思,在机器学习中,我们经常可以方便的获知最优参数所处的范围,从而据此设置alpha的取值大小,所以Adam的这种特性可以方便你设置alpha。
另外,根据我们在Momentum和RMSProp中的描述,m/sqrt(v)可以看做是对梯度“信噪比”(SNR)的估计,其中m是信号量,而v是噪音量。当噪音大时,步长小;噪音小时,步长大。这正是我们需要的特性,从而使得Adam能够较好的处理噪音样本,另外,当我们接近最优点时,噪音通常会变得很大,或者说真正的信号变得很微弱,信噪比通常会接近0,这样步长就会变得较小,从而天然起到退火效果(annealing)