对于超参数优化,我看到两种方法:
那么哪种方法更好呢?
发布于 2020-08-12 18:39:52
k-fold交叉验证(CV)过程(方法2)实际上做的事情与方法1相同,但是它重复了关于训练和验证集k时间的步骤。因此,对于CV,在选择最佳的超参数值之前,性能在k运行期间是平均的。这使得性能和价值选择在一般情况下更加可靠,因为偶然获得最佳结果的风险较小。然而,这需要更长的时间(因为重复k时间),所以如果培训过程很长,使用简历并不总是可行的。
https://datascience.stackexchange.com/questions/80178
复制相似问题