在训练CNN模型时,是否有可能在每一个时期减少损失,降低准确度?我在训练的时候得到了下面的结果。

有人能解释一下发生这种情况的可能原因吗?
发布于 2018-01-03 20:33:59
至少有5个原因可能导致这种行为:
sample_weights或class_weights来尝试类平衡。如果您想检查这种现象是否发生-请检查您的类分布。categorical_crossentropy作为度量,并观察它是否也在减少。如果没有--那就意味着你的正规化太严格了--试着减少重量的惩罚。发布于 2018-01-01 14:24:25
是的,这是可能的。
为了提供一个直观的例子来说明为什么会发生这种情况,假设您的分类器输出的A类和B类的概率大致相同,而A类的总体密度最高。在此设置中,最小限度地更改模型参数可能会将B转换为最可能的类。这一效应将使交叉熵损失的变化最小,因为它直接依赖于概率分布,但由于它取决于输出概率分布的最大程度,因此这种变化在精度上会被清楚地注意到。
结论是,最大限度地减小交叉熵损失并不总是意味着提高精度,主要是因为交叉熵是一个光滑函数,而精度是非光滑的。
发布于 2017-12-29 19:38:29
在精度下降的情况下,可以减少损失,但它远不能被称为一个好的模型。这个问题可以在模型的每一层使用批规范化来解决。
https://stackoverflow.com/questions/48025267
复制相似问题