bagging和dropout

bagging中文意思是集成学习,通过在一个样本中随机选择一些样本构成训练数据集,训练出一个弱学习器,

所谓的弱学习器就是分类的准确率稍微大于50%。重复N次,就可以得到N个弱学习器,最后通过这N个学习器进行投票,

采取少数服从多数的原则,最后即可实现分类的功能。


dropout就是抑制一个网络中的部分神经元,在相同的数据集上训练时,每次抑制不同的部分,就相当于有了多个弱学习器,这一点和bagging原理是类似的,可以减少过拟合。dropout就是训练的时候随机丢弃部分隐藏层,这时候可认为丢弃不同隐藏层对应产生的网络是类似集成学习的子网络



猜你喜欢

转载自blog.csdn.net/tianguiyuyu/article/details/80330642