发布于 2019-03-14 03:27:37
优化不是我的领域,但据我所知,目前高效有效的超参数优化主要围绕着建立代理模型。随着模型复杂性的增加,它们变成了一个更不透明的黑匣子。深层神经网络和想必复杂的树也是如此。代理模型试图将该黑匣子中的底层空间进行倒退。基于各种抽样技术,他们探索超参数空间,并试图建立一个函数来代表真实的潜在的超参数空间。
贝叶斯优化的重点是代理模型,该模型的构建对BO的建立至关重要。选择一个良好的损失函数也是BO的关键。
我认为随机搜索和贝叶斯搜索的性能随数据集和模型的不同而不同。Bergstra & Bengio (2012)对网格搜索中的随机搜索进行了有力的论证。Shahriari等人(2016年)为BO提供了强有力的理由。基于模型的超带策略可能比BO表现得更好,特别是对于高维,但是它纯粹是勘探,而不是开发。这很容易导致过早停止。然而,已经出现了努力将超带和BO结合起来。
我已经取得了很好的成功,科学优化,尽管有相当多的未实现。这是很容易原型,并可以很容易地与科学知识接口学习。
Bergstra,J. & Bengio,Y. (2012年)。超参数优化的随机搜索。机器学习研究杂志,13(2月),281-305。
Shahriari,B.,Swersky,K.,Wang,Z.,Adams,R.P.,& De Freitas,N. (2016)。把人从循环中取出来:贝叶斯优化的回顾。IEEE议事录,104(1),148-175。
发布于 2019-03-13 22:36:13
你可以看看自动滑雪。这是一个自动机器学习工具包,它是scikit- learning的直接扩展。
https://datascience.stackexchange.com/questions/47267
复制相似问题