机器学习模型—集成学习

机器学习模型—集成学习

集成学习说是一种模型,还不如说是一种思想,当然在这种思想之下,确实有一些模型,也就是我们这一节介绍的集成学习模型

集成学习 (ensemble learning),是通过构建出多个模型(这些模型可以是比较弱的模型),然后将它们组合起来完成任务的机器学习算法。所以,它实际上并不是一种机器学习算法,而是一个机器学习算法的家族。通常情况下,集成学习将几个表现一般的模型集成在一起,就能大幅提升模型的性能,这就是集成学习的天然优势

在这个算法家族中,很多算法都是“网红”算法,比如随机森林、梯度提升机(英文叫 GB 或 GBDT)和极限梯度提升(eXtreme Gradient Boosting,即 XGBoost,有时候简称 XGB)等,这些都是非常流行的机器学习算法,在很多许多领域都取得了成功,并且还是很多人赢得各种机器学习竞赛的主要方法。

集成本质上是博采众长,多个模型结合成一个整体,整体意味着一组元素被视为一个整体而不是单独的。集成方法创建多个模型并将它们组合起来解决问题。集成方法有助于提高模型的鲁棒性/泛化性。在本文中,我们将讨论一些方法及其在 Python 中的实现。

集成学习的优点就在于,它可以通过组合一些比较简单的算法,来保留这些算法训练出的模型“方差低”的优势;在此基础之上,集成学习又能引入复杂的模型,来扩展简单算法的预测空间。所以,集成学习是同时减小方差和偏差的大招。

集成学习的核心思想是训练出多个模型并将这些模型进行组合。根据分类器的训练方式和组合预测的方法,集成学习中两种最重要的方法就是:降低偏差的

猜你喜欢

转载自blog.csdn.net/king14bhhb/article/details/136697371