参考这个关于在NN:https://stackoverflow.com/a/10568938/2265724中选择隐藏层和单元数的答案
文章建议在泛化误差开始增加之前,增加隐藏单元的数量。
但我的问题是学习速度。给定隐藏单元的值(例如,图中的一个数据点或一个特定的体系结构,例如10个隐藏单元),如何设置学习速率和训练多少个时代?
参数的数量从1增加到5.1是最快的,但听起来并不令人满意(为什么不尝试其他学习速率呢?)3-5是费时的.因为如果我不高兴,我需要尝试另一个架构,增加隐藏单元的数量。然后重复,直到得到文章中所示的图形。
我正确地理解和实践了这一点吗?
发布于 2014-08-28 06:00:00
用于达到较低泛化误差的学习速率可能与问题有关。从以往的经验来看,最优学习率可以根据多个参数(包括时间大小、学习迭代次数、隐层数和/或神经元数以及输入的数量和格式)而不同。为了确定所研究的每一个问题的理想学习条件,经常会使用反复试验。
过去有一些文献给神经网络参数提供了一个合理的起点,给出了训练数据量、隐层、神经元和输出量。这可能是一个很好的起点。
也许其他的动态模型可以鼓励将泛化误差从局部极小降到最小。每个问题都有自己的理想参数,需要修改参数,或者使用某种形式的动态或自动模型来寻找理想。
发布于 2014-10-07 16:08:51
这是一个很难解决的问题;甚至还有一个机器学习的子领域专门用于探索这个问题,称为超参数优化。
解决超参数问题的最基本方法是蛮力搜索,在这种方法中,系统地改变网格上的超参数设置(“网格搜索”),并选择最佳的。这很慢,而且也很烦人,因为看起来应该有更好的方法。
关于改进网格搜索,有几种不同的思想流派:
https://stackoverflow.com/questions/25541202
复制相似问题