tf.keras.optimizers.Adam 优化器 示例

tf.keras.optimizers.Adam 优化器 示例

tf.keras.optimizers.Adam(
    learning_rate=0.001,  # 学习率 默认 0.001
    beta_1=0.9,  # 一阶矩估计的指数衰减率。 默认 0.9
    beta_2=0.999,  # 二阶矩估计的指数衰减率。 默认 0.999
    epsilon=1e-07,  # 模糊因子。如果None,默认为K.epsilon()。该参数是非常小的数,其为了防止在实现中除以零。默认 1e-07
    amsgrad=False,  # 布尔。是否应用该算法的AMSGrad变体。默认 False
    name='Adam',  # 应用渐变时创建的操作的可选名称。
    **kwargs)

猜你喜欢

转载自blog.csdn.net/weixin_44493841/article/details/121495502