摩杰注册
发布时间:2024-05-06 05:36:40点击量:
Adam:Adaptive Moment Estimation
Adam优化算法其实是动量梯度下降算法和RMSprop算法的结合。具体公式:
Adam优化算法需要做偏差修正:
更新权重:
Adam优化算法与动量梯度下降法、RMSprop算法一起是为数不多的使用与大多数神经网络的优化算法。
超参数:
:最重要的超参,一般都需要去调节
:一般默认值分别是0.9和0.999,一般去默认值不会去调节
:一个不怎么重要的超参,一般不用调节
初始化:
和 初始化为0。
遗留问题:
1.为什么要做偏差修正?