我有一个神经网络,它开始过度适应,因为验证损失开始增加,而训练损失却随着时间的推移而保持不变。
是否有一种通用的算法--无论是明显的还是其他的,众所周知的--如果过度拟合被检测到,就会尽早停止训练吗?
我注意到catboost实现了这样一个算法,但我在其他地方没有找到它。
https://catboost.ai/docs/concepts/overfitting-detector.html
这是否只是一个简单的问题,滚动我自己的回调函数,并停止时,培训和验证损失开始发散。
偏好TF,Keras,python3,.
一如既往地感谢
发布于 2020-05-17 15:05:36
听起来你只是在寻找EarlyStopping,当验证丢失对N个时代没有改善时,它就会停止训练。它和Iter在catboost中是一样的。
https://datascience.stackexchange.com/questions/74347
复制相似问题