Confusion Matrix :
[[4 2]
[1 3]]
Accuracy Score : 0.7
Report :
precision recall f1-score support
0 0.80 0.67 0.73 6
1 0.60 0.75 0.67 4
avg / total 0.72 0.70 0.70 10从公式精度=真阳性/(真阳性+假阳性)
4/(4+2) = 0.667但这是在召回中。
计算召回率的公式是真阳性/(真阳性+假阴性)
4/(4+1) = 0.80我看起来没什么区别。
发布于 2019-12-31 04:36:39
在没有看到代码的情况下很难确定,但我猜你正在使用Sklearn,并且没有将标签传递到你的混淆矩阵中。在没有标签的情况下,它通过解释混淆矩阵来决定导致假阳性和假阴性交换的排序。
https://stackoverflow.com/questions/59535407
复制相似问题