机器学习——决策树和随机森林

决策树:从根节点开始一步步走到叶子节点(决策),所有的数据最终都会落到叶子节点,既可以做分类也可以做回归

决策树思想,实际上就是寻找最纯净的划分方法,这个最纯净在数学上叫纯度,纯度通俗点理解就是目标变量要分得足够开(y=1的和y=0的混到一起就会不纯)。另一种理解是分类误差率的一种衡量。实际决策树算法往往用到的是,纯度的另一面也即不纯度,下面是不纯度的公式。不纯度的选取有多种方法,每种方法也就形成了不同的决策树方法,比如ID3算法使用信息增益作为不纯度;C4.5算法使用信息增益率作为不纯度;CART算法使用基尼系数作为不纯度。

树的组成
              根节点:第一个选择点
             非叶子节点与分支:中间过程
             叶子节点:最终的决策结果

                                          

决策树的衡量标准——熵

熵:熵是表示随机变量不确定性的度量(解释:说白了就是物体内部的混乱程度,比如杂货市场里面什么都有
那肯定混乱呀,专卖店里面只卖一个牌子的那就稳定多啦)

我们在学习决策树的时候——如何决策一个节点的选择呢?

信息增益:表示特征X使得类Y的不确定性减少的程度。(分类后的专一性,希望分类后的结果是同类在一起)

决策树剪枝策略
       为什么要剪枝:决策树过拟合风险很大,理论上可以完全分得开数据(想象一下,如果树足够庞大,每个叶子节点不就一个数据了嘛)
       剪枝策略:预剪枝,后剪枝
       预剪枝:边建立决策树边进行剪枝的操作(更实用)
       后剪枝:当建立完决策树后来进行剪枝操作

集成算法:

Bagging模型
                全称: bootstrap aggregation(说白了就是并行训练一堆分类器)
               最典型的代表就是随机森林啦
               森林:很多个决策树并行放在一起
               随机:数据采样随机,特征选择随机

                                

随机森林——构造树模型

随机森林优势
                    它能够处理很高维度(feature很多)的数据,并且不用做特征选择
                    在训练完后,它能够给出哪些feature比较重要
                    可以进行可视化展示,便于分析
                    容易做成并行化方法,速度比较快

猜你喜欢

转载自blog.csdn.net/liushuichengshang/article/details/81745453
今日推荐