准确率(accuaracy)= (TP+TN)/ ALL 即(TP+TN+FP+FN),是我们最熟知的。
正确率/精度(precision),召回率(recall),F1-score,ROC 曲线,AUC值
1.正确率(precision)= TP / (TP + FP) 真正正确的在所有判断为正确的比例。(真正正确的比例)
2.召回率(recall) = TP/(TP+FN) 在所有正确的例子中,正确例子的被判断出来的概率。(也有没被判断出来的,FN)
3.F1-值(F1-score) = 2 * TP / (2 * TP+FP+FN) 是正确率和召回率的调和均值。F1 score 给了精度和召回率相同的权重。
4.ROC 曲线,Receiver Operating Characteristic curve
ROC 曲线展示了当改变在模型中识别为正例的阈值时,召回率和精度的关系会如何变化。
TPR (recall)
FPR
真正的理想情况,TPR应接近1,FPR接近0,即图中的(0,1)点。ROC曲线越靠拢(0,1)点,越偏离45度对角线越好。
4.AUC值:AUC (Area Under Curve) 被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围一般在0.5和1之间。
AUC = 1,是完美分类器
0.5 < AUC < 1,优于随机猜测。这个分类器有预测价值。
AUC = 0.5,跟随机猜测一样。模型没有预测价值。
AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。
参考链接:https://blog.csdn.net/u013063099/article/details/80964865
https://www.jianshu.com/p/1afbda3a04ab