sklearn.metrics中的roc_auc_score理解以及使用

import numpy as np
from sklearn import metrics
import matplotlib.pyplot as plt
label=np.array([1,1,-1,-1])
scores=np.array([0.7,0.2,0.4,0.5])
fpr,tpr,thresholds=metrics.roc_curve(label,scores)
print('FPR:',fpr)
print('TPR:',tpr)
print('thresholds:',thresholds)
plt.plot(fpr,tpr)
plt.show()

输出:

FPR: [0. 0. 1. 1.]
TPR: [0.  0.5 0.5 1. ]
thresholds: [1.7 0.7 0.4 0.2]

在这里插入图片描述

首先将score排序,排序后的score以及对应的label为:

[0.7,0.5,0.4,0.2],
[1,-1,-1 ,1]

一开始阈值设置为无穷大,则fpr和tpr都为0,然后阈值依次设置为0.7,0.5,0.4,0.2,计算对应的fpr和tpr。就用阈值为0.7举例子,阈值为0.7,大于等于0.7的都预测为正,也就是score[0]预测为正,label[0]同样为正,预测正确,共有2个正例,预测对一个,tpr为1/2。接着预测,预测下一个,也就是0.5为正例,label为-1,预测错误,tpr不变,反例数共有2个,预测错误1个,fpr增加为1/2,接着预测,把0.4预测为正,又又预测错误啦,fpr接着加,fpr达到100%啦(意思是阈值为当前值时候把所有反例都预测为正例了)。接着预测,把0.2预测为正例,预测对了,fpr也加到100%了。

tpr:真正例率,把正样本预测为正例的概率,看label,label有2个1,代表有2个正样本。
fpr:假真例率,把负样本预测为正例的概率,例子中有2个-1,即有2个负样本。
阈值一般将score排下序就是阈值了,按照预测结果从大到小排序,依次设置每个元素为阈值,将排序表中处在这个阈值前面(>=阈值)的元素预测为正。

猜你喜欢

转载自blog.csdn.net/vincent_duan/article/details/121404063
今日推荐