weight_decay等参数的作用

这是ssd_pascal.py中的一段代码,因为在读ssd的代码,所以贴的这一段,一般别的solver param也差不多......

solver_param = {

    # Train parameters

//base_lr:网络的基础学习速率,一般设一个很小的值,然后根据迭代到不同次数,对学习速率做相应的变化.lr过大不会收敛,过小收敛过慢

    'base_lr': base_lr,

//weight_decay:权衰量,用于防止过拟合

    'weight_decay': 0.0005,

//lr_policy:学习速率的衰减策略,详细见后面

    'lr_policy': "step",

//stepsize:每40000次迭代减少学习率(这一项和lr_policy有关)

    'stepsize': 40000,

//学习率变化的比率(这一项和lr_policy有关)

    'gamma': 0.1,

//momentum:网络的冲量;学习的参数,不用变;上一次梯度更新的权重(找到的三个不一样的说法...)

    'momentum': 0.9,

//iter_size:iter_size*batch size=实际使用的batch size。 相当于读取batchsize*itersize个图像才做一下gradient decent。 这个参数可以规避由于gpu不足而导致的batchsize的限制 因为你可以用多个iteration做到很大的batch 即使单次batch有限

    'iter_size': iter_size,

//max_iter:最大迭代次数,告诉网络何时停止训练.太小达不到收敛,太大会导致震荡

    'max_iter': 60000,

//snapshot:每40000次迭代打印一次快照(就是把当前数据保存下来,方便下次重用,如果电源不稳定容易意外关机建议这个值设小一点...对,就是我...)

    'snapshot': 40000,

//display:每经过10次迭代,在屏幕上打印一次运行log(告诉你当前的loss之类的...)

    'display': 10,

//取多次foward的loss作平均,进行显示输出

    'average_loss': 10,

//type:选择一种优化算法,具体有哪些见后面

    'type': "SGD",

//选择CPU or GPU

    'solver_mode': solver_mode,

//device_id:选择几块GPU

    'device_id': device_id,

//用于调试的?暂时不确定...以后补上

    'debug_info': False,

//snapshot_after_train:true表示在训练完后把最后一次的训练结果保存下来

    'snapshot_after_train': True,

    # Test parameters

//test_iter:每次预测的迭代次数.一般test_iter*batch_size=所有test样本数,这样一次预测就可以覆盖所有test样本

    'test_iter': [test_iter],

//test_interval:训练时每迭代10000次进行一次预测

    'test_interval': 10000,

//

    'eval_type': "detection",

//

    'ap_version': "11point",

//test_initialization:false表示可以用上次保存的snapshot来继续训练

    'test_initialization': False,

    }

lr_policy

这个参数代表的是learning rate应该遵守什么样的变化规则,这个参数对应的是字符串,选项及说明如下:

  • “step” - 需要设置一个stepsize参数,返回base_lr * gamma ^ ( floor ( iter / stepsize ) ),iter为当前迭代次数
  • “multistep” - 和step相近,但是需要stepvalue参数,step是均匀等间隔变化,而multistep是根据stepvalue的值进行变化
  • “fixed” - 保持base_lr不变
  • “exp” - 返回base_lr * gamma ^ iter, iter为当前迭代次数
  • “poly” - 学习率进行多项式误差衰减,返回 base_lr ( 1 - iter / max_iter ) ^ ( power )
  • “sigmoid” - 学习率进行sigmod函数衰减,返回 base_lr ( 1/ 1+exp ( -gamma * ( iter - stepsize ) ) )

type

到目前的版本,caffe提供了六种优化算法来求解最优参数,在solver配置文件中,通过设置type类型来选择。

  • Stochastic Gradient Descent (type: "SGD"),
  • AdaDelta (type: "AdaDelta"),
  • Adaptive Gradient (type: "AdaGrad"),
  • Adam (type: "Adam"),
  • Nesterov’s Accelerated Gradient (type: "Nesterov") and
  • RMSprop (type: "RMSProp")

猜你喜欢

转载自blog.csdn.net/zhuimengshaonian66/article/details/81204984