构造分类器:
我们在构造了决策树之后,可以用于实际的分类了。在执行分类的时候需要决策树以及用于构造树的标签向量。程序比较测试数据与决策树上的数值,递归执行该过程直到进入叶子节点;最后将测试数据定义为叶子节点所属的类型。
def classify(inputTree, featLabels, testVec): #featLabels特征标签列表 firstStr = list(inputTree.keys())[0] #print('first:',firstStr) secondDict = inputTree[firstStr] #寻找用于划分数据集的特征存储在哪个位置 featIndex = featLabels.index(firstStr) #print('index:',featIndex) for key in secondDict.keys(): #print(key) #print(testVec[featIndex]) #print('******') if testVec[featIndex] == key: if type(secondDict[key]).__name__ == 'dict': classLabel = classify(secondDict[key], featLabels, testVec) #print('classLabel:',classLabel) else: classLabel = secondDict[key] #print('classLabel:',classLabel) return classLabel
运行的结果如上所示。
现在我们已经创建了决策树分类器,但是每次使用分类的时候必须重新构造决策树,下面我们来学习如何在硬盘上存储决策树分类器。
使用算法:决策树的储存
构造决策树是很麻烦的一件事情,所以为了节省计算时间,最好能够在每次执行分类器时调用已经构造好的决策树,为了解决这个问题,需要使用python模块pickle序列化对象。序列化的对象可以在磁盘上保存,并在需要时读取出来。任何对象都可以执行序列化操作,字典对象也不例外。
def storeTree(inputTree, filename): import pickle #存储方式默认是二进制方式。 fw = open(filename, 'wb+') pickle.dump(inputTree, fw) fw.close def grabTree(filename): import pickle fr = open(filename, 'rb') return pickle.load(fr)
我们可以看到已经将分类器储存在硬盘上了,而不用每次都重新学习一遍了。
示例:使用决策树预测隐形眼镜类型
(1)、收集数据:提供的文本文件
(2)、准备数据:解析tab键分隔的数据行
(3)、分析数据:快速检查数据,确保正确的解析数据内容,使用createPlot()函数绘制最终的图形。
(4)、训练算法:使用之前的createTree()函数
(5)、测试算法:编写测试函数决策树可以正确分类给定的数据实例
(6)、使用算法:存储树的数据结构,以便下次使用时无需重新构造树
fr = open('lenses.txt') #strip()移除字符串两端指定字符,默认为空格 lenses = [inst.strip().split('\t') for inst in fr.readlines()] print(lenses) print('*****') lensesLabels = ['age','prescript','astigmatic','tearRate'] lensesTree = createTree(lenses, lensesLabels) print(lensesTree)
最终的决策图为:
医生只需要四次询问就可以确定哪种类型的眼镜,然而这些匹配的选项太多了,我们将这种问题成为过度匹配。为了减少过度匹配的问题,我们可以裁剪决策树,去掉一些不需要的叶子节点。如果叶子只增加少许信息那么就删除该节点,将它并入到其他的叶子节点中。我们会在第九章进一步讨论。