深度学习 solver模型求解文件参数调节

        Solver.prototxt 参数调节经验

1.  net: "train_val.prototxt"  //深度学习模型的网络结构文件  

2.  test_iter: 1000     //1000指的是测试的批次,测试样本较多时,一次性执行全部数据,效率较低,因此分几个批次进行执行,  

3.                      //如果每个批次数量设为batch_size,则有以下关系:test_iter = 测试样本总数/batch_size  

4.                     

5.  test_interval: 1000 //测试间隔,即每训练1000次,进行一次测试   

6.    

7.  base_lr: 0.01       // 基础学习速率(初始学习率),迭代过程中可以对基础学习速率进行调整,调整策略通过lr_policy来设置  

8.  lr_policy: "step"   // lr_policy设置参数:  

9.                      //- fixed: 保持base_lr不变.  

10.                     //- step:  如果设置为step,则还需要设置一个stepsize,  返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示当前的迭代次数  

11.                     //- exp:     返回base_lr * gamma ^ iter iter为当前迭代次数  

12.                     //- inv:    如果设置为inv,还需要设置一个power, 返回base_lr * (1 + gamma * iter) ^ (- power)  

13.                     //- multistep: 如果设置为multistep,则还需要设置一个stepvalue。这个参数和step很相似,step是均匀等间隔变化,而multistep则是根据                                 stepvalue值变化  

14.                     //- poly:   学习率进行多项式误差返回 base_lr (1 - iter/max_iter) ^ (power)  

15.                     //- sigmoid: 学习率进行sigmod衰减,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))                    

16. gamma: 0.1          //学习率变化的比率  

17. stepsize: 3000      //每迭代3000次,调整一次学习率    

18.   

19.   

20. display: 20  //20次迭代,显示一次    

21. max_iter: 12000 //最大迭代次数。这个数设置太小,会导致没有收敛,精确度很低。设置太大,会导致震荡,浪费时间。  

22. momentum: 0.9   //学习的参数,不用变  

23. weight_decay: 0.0005  //权重衰减项,防止过拟合的一个参数  

24. snapshot: 5000  //每迭代5000次,保存一次训练权值  

25. snapshot_prefix: "caffenet_train"  //设置保存训练权值的路径   

26. solver_mode: GPU  //选择使用CPU还是GPU运行  

 


猜你喜欢

转载自blog.csdn.net/yuanlunxi/article/details/79378278
今日推荐