假设我有一个模型,它有一个二进制分类任务(0和1的两个类),因此,它输出一个介于0到1之间的数字,如果它大于0.5,我们认为它是1和0类。
现在,假设我们删除测试集中的任何结果,即它的输出在0.4到0.6的两个阈值之间,以使模型更有信心。更清楚的是,如果输出在这个范围内,模型只会打印“我对这个图像不自信”。
一般来说,这种方法是个好主意吗?
如果任务是关于像COVID这样的医疗数据集的二进制分类呢?
如果是的话,这种方法是否在最近的任何研究中使用过?
发布于 2021-09-11 09:32:58
一般来说,可以用这种方法来使用预测的概率。然而,重要的是要考虑到这个概率本身就是一个预测,即模型可能是错误的。例如,对于一个实际为负值的实例,该模型可以预测99%的正概率。与往常一样,不能假定模型是正确的:必须对其进行评估,特别是标记为“不自信”的实例实际上是否更有可能被错误地预测。
该策略中的一个重要问题是如何选择“不自信”区间的边界,例如任意选择0.4,0.6可能不是最优的。
https://datascience.stackexchange.com/questions/101962
复制相似问题