决策树考点

1.随机森林随机选特征的作用

RF的话,如果有一个特征和标签特别强相关。选择划分特征时,如果不随机的从所用特征中随机取一些特征的话,那么每一次那个强相关特征都会被选取。那么每个树都会是一样的。这就是随机森林随机选取一些特征的作用,让某些树,不选这个强相关特征。

2.Bagging 意义

bootstrap aggregating 自举汇聚法

模型很好,variable很大。

3.GBDT的子采样是无放回采样,而Bagging的子采样是放回采样

猜你喜欢

转载自blog.csdn.net/qq_34555202/article/details/82082249