首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >我是否可以通过降低学习率来完全取消使用较小批次的影响?

我是否可以通过降低学习率来完全取消使用较小批次的影响?
EN

Data Science用户
提问于 2020-01-16 15:42:35
回答 1查看 85关注 0票数 5

我遇到的问题是,来自常规批处理(例如,32,64)的数据不适合我的GPU。在其他解决方案中,我正在考虑减少批处理大小,就像通常建议的那样。当然,这会使神经网络更加不稳定,因此需要考虑其他事情。

例如,我正在考虑降低学习速度,以抵消小批处理带来的不稳定性。会不会用较小的学习率完全消除较高的不稳定性?或者,这是否带来了其他的问题,并没有完全解决问题?

EN

回答 1

Data Science用户

发布于 2020-01-16 21:01:10

你知道这篇文章/教程吗?

https://machinelearningmastery.com/how-to-control-the-speed-and-stability-of-training-neural-networks-with-gradient-descent-batch-size/

我没有研究这个答案,但我想,当你保证这些批次是随机的,一个更小的学习就会得到同样的结果。

我猜你的学习率除以批次大小缩减因子的平方根。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/66591

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档