dtree = tree.DecisionTreeClassifier(
criterion="mse" #不纯度的计算方法。"mse"表示使用均方误差;"friedman_mse"表示使用费尔德曼均方误差;“mae”表示使用绝对平均误差
,splitter="best" #控制决策树中的随机选项。“best”表示在分枝时会优先选择重要的特征进行分枝;“random”表示分枝时会更加随机,常用来防止过拟合
,max_depth=10 #限制树的最大深度
,min_samples_split=5 #节点必须包含训练样本的个数
,min_samples_leaf=1 #叶子最少包含样本的个数
,min_weight_fraction_leaf=0.0
,max_features=None #限制分枝的特征个数
,random_state=None #输入任意数字会让模型稳定下来。加上random_state这个参数后,score就不会总是变化
,max_leaf_nodes=None
,min_impurity_decrease=0.0 #限制信息增益的大小,信息增益小于设定值分枝不会发生
,min_impurity_split=None #结点必须含有最小信息增益再划分
,class_weight=None #设置样本的权重,当正反样本差别较大时,又需要对少的样本进行精确估计时使用,搭配min_weight_fraction_leaf来剪枝
,presort=False
)