过拟合和欠拟合以及相对应的解决办法

欠拟合:是指模型的学习能力比较低,以至于,只学到了很少的一部分信息,当进行预测的时候,会发生方差最低,和偏差较大的情况
过拟合:是指模型的学习能力比较强,以至于,直接把题给背下来了,如果考到原题,就会实现相应的预测100%,如果预测的不再训练集中,那么结果就是0.
过拟合是偏差较小,但是方差较大
上面的较小与较大是和不欠拟合也不过拟合的相比而言的,这也在某种程度上说明了,偏差 和方差是一个均衡的状态,一个高一个低,高和低都不好
mse=var+bias
图片来源于华东师范大学茆师松的书,出版社是高等教育
这里写图片描述
这里写图片描述
欠拟合的解决办法
1)添加其他特征项,有时候我们模型出现欠拟合的时候是因为特征项不够导致的,可以添加其他特征项来很好地解决。例如,“组合”、“泛化”、“相关性”三类特征是特征添加的重要手段,无论在什么场景,都可以照葫芦画瓢,总会得到意想不到的效果。除上面的特征之外,“上下文特征”、“平台特征”等等,都可以作为特征添加的首选项。
2)添加多项式特征,这个在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强。例如上面的图片的例子。
3)减少正则化参数,正则化的目的是用来防止过拟合的,但是现在模型出现了欠拟合,则需要减少正则化参数。
4)增加模型复杂度。如果模型太简单,不能够应对复杂的任务。可以使用更复杂的模型,减小正则化系数。具体来说可以使用核函数,集成学习方法,深度学习等。
集成学习方法boosting(如GBDT,xgboost,adaboost)能有效解决high bias,
过拟合解决办法:
解决方法:
1) 合适的模型(simpler model structure)
2) 正则化(regularization) L2正则化
3) 数据增强(data augmention)
4) 随机失活(Dropout) 或者weight decy
5) 批规范化(batch normalization)
6) Bagging和其他集成模型 例如: 随机森林模型可以
7)重新清洗数据,导致过拟合的一个原因也有可能是数据不纯导致的,如果出现了过拟合就需要我们重新清洗数据。
8)增大数据的训练量,还有一个原因就是我们用于训练的数据量太小导致的,训练数据占总数据的比例过小。

猜你喜欢

转载自blog.csdn.net/lc574260570/article/details/81742517