我使用带有乙状结肠激活函数h(z) = 1 / {(1+e^{-z})} 的神经网络将图像数据分类为6类。当在新的图像数据上运行经过训练的神经网络时,我注意到所有6类假设输出的估计概率之和并不总是等于1。例如,给定一幅输入图像,每个类的假设输出可能是:
类别1- 0.10类2- 0.11类3- 0.12类4- 0.13类- 0.14类6-- 0.15
我将这张图片解释为被归类为6类的13%概率。然而,所有类的总和都是< 1。
我的直觉说,每堂课的概率应该是1,但是,我对机器学习世界还是很陌生的。
我的代码中可能有错误,还是这是“正常”输出?
发布于 2018-12-13 20:02:47
总结一下两者都可能有其特殊意义,我将尽力解释它们。如果您的类不是相互排斥的,那么假设您有狗类和猫类,并且它们都可以存在于图像中。在这种情况下,您应该使用sigmoid非线性作为每个类的输出,并分别对每个类进行解释。每一个值大于一半的值都可以解释相应标签的存在。相反,你的输入可能是相互排斥的,这意味着在每个输入中,你可能只有一只猫或一只狗。在这种情况下,您应该使用softmax非线性,是的,它总结为一个。胜利者将是价值最高的人。
https://datascience.stackexchange.com/questions/42568
复制相似问题