吴恩达机器学习(九)Precision、Recall、F-score、TPR、FPR、TNR、FNR、AUC、Accuracy

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zhq9695/article/details/82909967

目录

0. 前言

1. Precision、Recall、F-score(F-measure)

2. TPR、FPR、TNR、FNR、AUC

3. Accuracy


学习完吴恩达老师机器学习课程的机器学习系统设计,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。

如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~

0. 前言

针对二分类的结果,对模型进行评估,通常有以下几种方法:

  • Precision、Recall、F-score(F1-measure)
  • TPR、FPR、TNR、FNR、AUC
  • Accuracy

初始作如下定义:

  真实结果
  1 0
预测结果 1 TP(真阳性) FP(假阳性)
0 FN(假阴性) TN(真阴性)
  • TP(True Positive):预测结果为正类,实际上就是正类
  • FP(False Positive):预测结果为正类,实际上是反类
  • FN(False negative):预测结果为反类,实际上是正类
  • TN(True negative):预测结果为反类,实际上就是反类

1. Precision、Recall、F-score(F-measure)

Precision(准确率)可以理解为预测结果为正类中有多少是正类,给出定义如下:

\large Precision=\frac{TP}{TP+FP}

Recall(召回率)可以理解为真实结果为正类中有多少被预测成正类,给出定义如下:

\large Recall=\frac{TP}{TP+FN}

F-score(F值)又称作F1-measure,是综合考虑Precision和Recall的指标,给出定义如下:

\large F-score=2*\frac{Precision*Recall}{Precision+Recall}

2. TPR、FPR、TNR、FNR、AUC

TPR(True Positive Rate)可以理解为所有正类中,有多少被预测成正类(正类预测正确),即召回率,给出定义如下:

\large TPR=\frac{TP}{TP+FN}

FPR(False Positive Rate)可以理解为所有反类中,有多少被预测成正类(正类预测错误),给出定义如下:

\large FPR=\frac{FP}{FP+TN}

TNR(True Negative Rate)可以理解为所有反类中,有多少被预测成反类(反类预测正确),给出定义如下:

\large TNR=\frac{TN}{FP+TN}

FNR(False Negative Rate)可以理解为所有正类中,有多少被预测成反类(反类预测错误),给出定义如下:

\large FNR=\frac{FN}{TP+FN}

以FPR(False Positive Rate)为横坐标,TPR(True Positive Rate)为纵坐标,可以做如下图(图源:百度百科),称作ROC曲线:

ROC曲线又称作“受试者工作特性曲线”,很明显,越靠近左上角的点,效果越好。

AUC(Area Under Curve)定义为ROC曲线下的面积,很明显,这个值越大越好。 

3. Accuracy

Accuracy(精确率)可以理解为所有实验中,分类正确的个数,给出定义如下:

\large Accuracy=\frac{TP+TN}{TP+FP+FN+TN}


如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~

 

 

 

猜你喜欢

转载自blog.csdn.net/zhq9695/article/details/82909967