【深度学习】CNN炼丹TIPS

确保收敛

以下小技巧用来是网络收敛的必要不充分条件:

  1. 迭代次数(Epoch):至少5-7epoch,也就是必须对所有样本训练5-7遍,可以根据实际情况调整至更大;
  2. 样本数量分布(Sample Account):注意保持各个类别样本数均衡,类别间数量差异控制在2倍以内吧,比如最少的样本数为100,最多的样本最好在300以下。如果样本差异过大,比如某类100,另一类1000以上,很可能导致Loss一直在高低值之间震荡,难以收敛;
  3. 学习率(Learning Rate):初始学习率不宜过大,经常采用的初始学习率如0.01,太大的学习率使得Loss值一直处于高位震荡,无法收敛;

加速收敛

如何让网络更加强健、提升训练收敛速度是以下小技巧所关心的:

  1. 学习率衰减(LR Decay):让学习率在网络训练的后半阶段逐渐缩小,可以进一步提升网络准确度;
  2. 丢弃节点(Dropout):当网络节点过多时,采用Dropout让网络中部分节点不工作,防止网络过拟合,提升网络稳健性;
发布了71 篇原创文章 · 获赞 56 · 访问量 9万+

猜你喜欢

转载自blog.csdn.net/baidu_26646129/article/details/89887013