sklearn之Adaboost类库介绍

转载自:http://blog.sina.com.cn/s/articlelist_1654066213_0_1.html
本文介绍scikit-learn中Adaboost类库的使用,重点讲解调参的注意事项。

1. Adaboost类库概述
scikit-learn中Adaboost类库包含AdaBoostClassifier和AdaBoostRegressor,其中AdaBoostClassifier用于分类,AdaBoostRegressor用于回归。
AdaBoostClassifier实现了SAMME和SAMME.R两种Adaboost分类算法;而AdaBoostRegressor则实现了Adaboost.R2回归算法。
当我们对Adaboost调参时,主要针对两部分内容进行调整,第一部分是对Adaboost框架进行调参, 第二部分是对所选择的弱学习器进行调参,两者相辅相成。下面就对AdaBoostClassifier和AdaBoostRegressor进行详细地介绍。

2. AdaBoostClassifier和AdaBoostRegressor的框架参数
参数 AdaBoostClassifier AdaBoostRegressor
base_estimator 弱分类学习器。理论上可以选择任何一个分类学习器,不过需要支持样本权重。常用的是CART分类树和神经网络MLP(Multi-layer Perceptron,多层感知器),默认是使用CART分类树DecisionTreeClassifier。另一个需要注意的点是,如果我们选择SAMME.R算法,则所选择的弱分类学习器还需要支持概率预测,也就是在scikit-learn中弱分类学习器对应的预测方法除了predict()还要有predict_proba()。 弱回归学习器。同样地,可以选择任何一个回归学习器,同时也需要支持样本权重。常用的是CART回归树和神经网络MLP(Multi-layer Perceptron,多层感知器),默认是使用CART回归树DecisionTreeRegressor。
algorithm scikit-learn实现了两种Adaboost分类算法,即SAMME和SAMME.R。这两者的主要区别是弱学习器权重的度量,SAMME使用了对样本集分类效果作为弱学习器的权重,而SAMME.R则使用了对样本集分类的预测概率大小来作为弱学习器的权重。由于SAMME.R使用了概率度量的连续值,迭代一般比SAMME快,因此默认算法是SAMME.R。我们一般使用默认的SAMME.R就够了,但是要注意的是使用了SAMME.R算法,则弱分类学习器参数base_estimator必须限制使用支持概率预测的分类器。而SAMME算法则没有这个限制。 AdaBoostRegressor类没有这个参数。
loss AdaBoostClassifier类没有这个参数。 AdaBoostRegressor类的Adaboost.R2算法需要用到这个参数。其选项有线性’linear’,平方’square’和指数’exponential’三种, 一般使用默认值线性’linear’就足够了,除非你怀疑这个参数导致拟合程度不好。这个值对应了对第k个弱分类器中第i个样本误差的处理,即:如果是线性误差,则scikit-learn(sklearn)Adaboost类库介绍;如果是平方误差,则scikit-learn(sklearn)Adaboost类库介绍;如果是指数误差,则scikit-learn(sklearn)Adaboost类库介绍scikit-learn(sklearn)Adaboost类库介绍是训练集上的最大误差,scikit-learn(sklearn)Adaboost类库介绍
n_estimators 弱学习器的最大迭代次数,或者说最大的弱学习器个数。一般来说n_estimators太小,容易欠拟合,而n_estimators太大,又容易过拟合,通常需要选择一个适中的数值,默认值是50。在实际的调参过程中,常常将它和参数learning_rate一起来考虑。
learning_rate 弱学习器的权重缩减系数ν,原始强学习器的迭代公式加上正则化项以后,变成了scikit-learn(sklearn)Adaboost类库介绍。ν的取值范围是0<ν≤1。对于同样的训练集拟合效果,较小的ν意味着需要进行更多的弱学习器迭代次数。通常用步长和迭代最大次数一起来决定算法的拟合效果。所以参数n_estimators和learning_rate需要一起来调参。一般来说,可以从一个小一点的ν开始调参,其默认值是1。

3. AdaBoostClassifier和AdaBoostRegressor的弱学习器参数
我们接着介绍AdaBoostClassifier和AdaBoostRegressor的弱学习器参数,由于使用不同的弱学习器对应的弱学习器参数各不相同,因此这里仅介绍默认的决策树弱学习器参数,即CART分类树DecisionTreeClassifier和CART回归树DecisionTreeRegressor的参数。
DecisionTreeClassifier和DecisionTreeRegressor的参数基本类似,在scikit-learn(sklearn)决策树算法类库介绍一文中已经对这两个类的参数做了详细的解释。这里我们只是强调一下其中需要注意的几个最重要的参数:
  1) 划分时考虑的最大特征数max_features:可以使用多种类型值,默认是”None”,意味着划分时考虑所有的特征数;如果是”log2”,意味着划分时最多考虑log2N(以2为底N的对数)个特征;如果是”sqrt”或者”auto”,意味着划分时最多考虑N的平方根个特征;如果是整数,代表考虑的特征绝对数;如果是浮点数,代表考虑特征数的百分比,即考虑(百分比xN)取整后的特征数。其中N是样本总特征数。一般来说,如果样本特征数不多,比如小于50,使用默认值”None”就可以了,如果特征数非常多,则可以灵活地使用上述其它取值来控制划分时考虑的最大特征数,以控制决策树的生成时间。
  2) 决策树的最大深度max_depth:默认可以不输入,如果不输入,则不会限制决策树的深度。一般来说,数据少或者特征少的时候可以不用管这个值。如果训练集样本量大,特征多的情况下,推荐限制这个最大深度,具体的取值取决于数据的分布。常用的可以取10-100之间。
  3) 内部节点再划分所需最小样本数min_samples_split:这个值限制了子树继续划分的条件,如果某节点的样本数少于min_samples_split,则不会再进行划分,默认值是2。如果样本量不大,不需要管这个值;如果样本数量级非常大,则推荐增大这个值。
  4) 叶子节点最少样本数min_samples_leaf:这个值限制了叶子节点最少的样本数,如果某叶子节点数目小于该值,则会和兄弟节点一起被剪枝。 默认值是1,可以输入最少样本数的整数,或者最少样本数占样本总数的百分比。如果样本量不大,不需要管这个值。如果样本数量级非常大,则推荐增大这个值。
  5) 叶子节点最小的样本权重和min_weight_fraction_leaf:这个值限制了叶子节点所有样本权重和的最小值,如果小于这个值,则会和兄弟节点一起被剪枝。 默认值是0,就是不考虑样本权重。一般来说,如果较多样本有缺失值,或者分类树样本的分布类别偏差很大,就会引入样本权重,这时我们就要考虑这个参数了。
  6) 最大叶子节点数max_leaf_nodes:通过限制最大叶子节点数,可以防止过拟合,默认值是”None”,即不限制最大的叶子节点数。如果增加了限制,算法会创建在最大叶子节点数内最优的决策树。如果特征不多,可以不用考虑这个值,但是如果特征多的话,需要加以限制,具体的值可以通过交叉验证得到。

4. 使用Mnist数据集测试scikit-learn的AdaBoostClassifier
代码如下所示:
—————————————————————————————————
from sklearn.ensemble import AdaBoostClassifier
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import GridSearchCV
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import accuracy_score
from sklearn.decomposition import PCA
from time import time
import numpy as np
import mnist
import roc

if __name__ == “__main__”:
    # 读取Mnist数据集, 测试AdaBoost的分类模型
    mnistSet = mnist.loadLecunMnistSet()
    train_X, train_Y, test_X, test_Y = mnistSet[0], mnistSet[1], mnistSet[2], mnistSet[3]

    m, n = np.shape(train_X)
    idx = range(m)
    np.random.shuffle(idx)

    print “\n**********测试AdaBoostClassifier类**********”
    t = time()
    model = AdaBoostClassifier(
        base_estimator=DecisionTreeClassifier(splitter=’random’, max_features=90, max_depth=50, min_samples_split=6,
                                              min_samples_leaf=3), n_estimators=1200, learning_rate=0.005)
    # 拟合训练数据集
    model.fit(train_X, train_Y)
    # 预测训练集
    train_Y_hat = model.predict(train_X[idx])
    print “训练集精确度: “, accuracy_score(train_Y[idx], train_Y_hat)
    # 预测测试集
    test_Y_hat = model.predict(test_X)
    print “测试集精确度: “, accuracy_score(test_Y, test_Y_hat)
    print “总耗时:”, time() - t, “秒”
    # 绘制ROC曲线
    # n_class = len(np.unique(train_Y))
    # roc.drawROC(n_class, test_Y, test_Y_hat)
—————————————————————————————————

5. 使用CCPP数据集测试scikit-learn的AdaBoostRegressor
代码如下所示:
—————————————————————————————————
from sklearn.ensemble import AdaBoostRegressor
from sklearn.tree import DecisionTreeRegressor
from sklearn.model_selection import GridSearchCV, train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import mean_squared_error
from time import time
import numpy as np
import pandas as pd

if __name__ == “__main__”:
    # 读取CCPP数据集, 测试AdaBoost的回归模型
    data = pd.read_excel(“data/CCPP/Folds5x2_pp.xlsx”)
    # AT:温度, V:压力, AP:湿度, RH:压强, PE:输出电力
    # 样本特征X
    X = data[[‘AT’, ‘V’, ‘AP’, ‘RH’]]
    # 数据归一化
    X = StandardScaler().fit_transform(X)
    # 样本输出Y
    Y = data[[‘PE’]]
    # 划分训练集和测试集,将数据集的70%划入训练集,30%划入测试集
    train_X, test_X, train_Y, test_Y = train_test_split(X, Y, test_size=0.3, random_state=1)

    m, n = np.shape(train_X)
    idx = range(m)
    np.random.shuffle(idx)

    print “\n**********测试AdaBoostRegressor类**********”
    t = time()
    model = AdaBoostRegressor(
        base_estimator=DecisionTreeRegressor(splitter=’random’, max_depth=20, min_samples_split=5, min_samples_leaf=3),
        n_estimators=800, learning_rate=0.1)
    # 拟合训练数据集
    model.fit(train_X, train_Y.values.ravel())
    # 预测测试集
    test_Y_pred = model.predict(test_X)
    print “测试集MSE:”, mean_squared_error(test_Y, test_Y_pred)
    print “测试集RMSE:”, np.sqrt(mean_squared_error(test_Y, test_Y_pred))
    print “总耗时:”, time() - t, “秒”
—————————————————————————————————

猜你喜欢

转载自blog.csdn.net/zztingfeng/article/details/80590292