例如,我训练了一个贝叶斯(支持向量机,RandomForest或其他)模型,得分低于:
Model:
precision recall f1-score support
neg 0.0622 0.9267 0.1166 191
pos 0.9986 0.7890 0.8815 12647
avg / total 0.98 0.79 0.87 12838我的老板告诉我,neg的准确率太低了,他可以接受60%的召回率,不需要这么高。所以我需要一种方法,通过将召回率限制在60%的.But来获得最好的精确度,我在sklearn中找不到类似的功能。
有没有办法用最好的precision训练一个模型,同时召回可以限制到一个特定值?(或者为了在neg上达到20%的精确度,不要管召回)
发布于 2017-06-29 12:45:54
sklearn实现了精度-召回率的权衡,如下所示:http://scikit-learn.org/stable/auto_examples/model_selection/plot_precision_recall.html
一种方法是使用precision_recall_curve(),然后用您想要的召回在图形上找到一个点。
https://stackoverflow.com/questions/44816262
复制相似问题