首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >深度学习,损失不减

深度学习,损失不减
EN

Stack Overflow用户
提问于 2015-12-23 22:52:36
回答 2查看 4.9K关注 0票数 2

我尝试使用一个有20个类的训练集来优化一个预先训练好的模型。值得一提的是,尽管我有20个班级,但其中一个班级包含1/3的训练图像。这是不是我的损失没有减少,测试准确率几乎达到30%的原因?

感谢您的建议

EN

回答 2

Stack Overflow用户

发布于 2016-07-24 00:25:56

我也遇到过类似的问题。我通过增加神经网络权重的初始值的方差来解决这个问题。这作为神经网络的预处理,以防止权重在后部支撑过程中消失。

我在Jenny Orr教授的课程中偶然发现了neural network lectures,发现它提供了非常丰富的信息。(我刚刚意识到,詹妮在早年与Yann LeCun和Leon bottou共同撰写了许多关于神经网络训练的论文)。

希望它能帮上忙!

票数 4
EN

Stack Overflow用户

发布于 2016-01-03 01:08:16

是的,这很可能是你的网对不平衡的标签过度拟合。一种解决方案是您可以在其他标签上执行数据增强,以平衡它们。例如,如果你有图像数据:你可以做随机裁剪,水平/垂直翻转,各种技术。

编辑:

检查是否过度拟合不平衡标签的一种方法是计算网络预测标签的直方图。如果它非常偏向不平衡的类,你应该尝试上面的数据增强方法,并重新训练你的网络,看看这是否有帮助。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/34438253

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档