ROC评估曲线简单解释。

主要还是想概括一下常用的评估曲线干啥的。

带代码,废话可能很多

应付作业应该够用了。

# auc roc 曲线相关

import sklearn.metrics as metrics
#假设用的线性模型

'''
model.predict记得改成你自己的模型
'''

fpr1,tpr1,th1 = metrics.roc_curve(test_y,model.predict(test_x))


'''
auc的值
'''

auc = metrics.auc(fpr1,tpr1)

'''
画ROC曲线
'''

from matplotlib.pyplot as plt
plt.figure(figsize = [8,8])
plt.plot(fpr1,tpr1,color='b')
plt.plot([0,1],[0,1],color='r',alpha = 0.5,linestyle = '--')

画出来长这样,这个是随便找了个数据集画的。

 AUC就是蓝色的那条线下面到x轴的面积,范围是0.5-1,越接近1说明分类器性能越好

AUC越接近0.5,这模型分类性能越接近随机猜测。

ROC是啥,ROC就是那个蓝色的线,横轴叫FPR(假阳性率,就是把0当成1,然后这一堆1里面实际上是0的比率),纵轴叫TPR(真阳性率,就是前面的反过来),ROC曲线越靠近左上角,说明分类器性能越好。

猜你喜欢

转载自blog.csdn.net/nanaminanaki/article/details/130140850