Deep learning II - II Optimization algorithms - Adam (Adaptive Moment Estimation)自适应矩估计
其他
2018-06-24 05:13:45
阅读次数: 0
Adam optimization algorithms
- 将gradient descent with momentum和RMSprop相结合的算法,具有更好的表现效果和下降速度。
- Hyperparameters 选择建议如下
转载自blog.csdn.net/zfcjhdq/article/details/80746267