二分类指标Precision、Recall、Accuracy、F score、TPR、FPR、MCC

  1. Ture Positive Rate (TPR): T P T P + F N \frac{TP}{TP+FN} TP+FNTP,考察分类器在GT为阳性的样本中预测正确的比例。
  2. False Positive Rate (FPR): F P F P + T N \frac{FP}{FP+TN} FP+TNFP,考察分类器在GT为阴性的样本中预测错误的比例。
  3. AUC:ROC曲线下的面积,综合考察分类器的性能。
  4. Percision: T P T P + F P \frac{TP}{TP+FP} TP+FPTP,考察在分类器预测为阳性的样本中,预测正确的比例。
  5. Recall: T P T P + F N \frac{TP}{TP+FN} TP+FNTP,和TPR一样。
  6. Average Precision (AP):PR曲线下的面积,综合考察分类器的性能。
  7. ACC: T P + T N T P + F P + F N + T N \frac{TP+TN}{TP+FP+FN+TN} TP+FP+FN+TNTP+TN,考察分类器在所有样本中预测正确的比例。
  8. F1 score: 2 1  Precision  + 1  Recall  \frac{2}{\frac{1}{\text { Precision }}+\frac{1}{\text { Recall }}}  Precision 1+ Recall 12,计算Precision和Recall两个指标的调和平均数,综合考虑了分类器在这两个指标上的表现。
  9. F β \beta β score: 1 + β 2 β 2 1  Recall  + 1  Precision  \frac{1+\beta^{2}}{\beta^{2} \frac{1}{\text { Recall }}+\frac{1}{\text { Precision }}} β2 Recall 1+ Precision 11+β2,相比F1 score,F β \beta β score可以调整权重,让指标更加关注分类器在Recall或者Precision上的性能(例如F2 score更加关注Recall)。
  10. Matthews correlation coefficient (MCC): T P × T N − F P × F N ( T P + F P ) ( T P + F N ) ( T N + F P ) ( T N + F N ) \frac{TP \times TN-FP \times FN}{\sqrt{(TP+FP)(TP+FN)(TN+F P)(TN+FN)}} (TP+FP)(TP+FN)(TN+FP)(TN+FN) TP×TNFP×FN​,综合考虑了TP、FP、FN、TN四种情况,即使在两类别的样本含量差别很大时,也可以使用这个指标。(不是很理解这个指标,于是从网上查到了该指标的含义)

猜你喜欢

转载自blog.csdn.net/fuss1207/article/details/126841669