首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >深度学习:为什么随着批次大小的减少,准确性会提高呢?

深度学习:为什么随着批次大小的减少,准确性会提高呢?
EN

Stack Overflow用户
提问于 2018-01-28 00:42:00
回答 1查看 1.5K关注 0票数 4

我对批处理大小的理解是:越小、越吵、计算效率越低,但是我开发了一个模型,我使用了一个特定的数据集,在其中我尝试了不同的配置,我所能看到的就是,随着批处理大小的减小,精度会提高(同时保持其余的参数不变)。我尝试了2,4,8,16,32和64的批量大小。我预计,准确度将从2-8,它将是稳定的/振荡在其他,但与减少批大小的改善是完全清楚的(2倍的交叉验证)。

我的问题是,为什么会发生这种事?当这种情况发生时,我能对我的模型和数据集说些什么呢?

EN

回答 1

Stack Overflow用户

发布于 2018-01-28 13:44:22

它的想法是,它是更难适应,因为梯度噪声。但这不仅是在改善。见卷积神经网络结构的分析与优化第59页表5.9。如果你的批量太小,准确度会再次下降。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48482059

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档