我在用Tensorflow训练我的模型。我每隔10个时代就会定期保存我的模型。我要训练的样本数量有限,所以我正在增强我的数据集,以生成一个更大的训练数据集。
如果我需要使用我保存的模型来恢复停电后的训练,那么使用相同的数据集还是创建一个新的数据集是最好的吗?
发布于 2021-02-05 22:44:05
您的问题在很大程度上取决于您如何增强数据集。如果增强扭曲了基础数据集的统计分布,则应继续使用停电前数据集进行培训。否则,您将假设您的增强没有更改数据集的分布。
这是一个相当安全的假设(假设您的增强不会以极其重要的方式更改数据),您可以安全地恢复对新数据集或旧数据集的培训,而不会显着地更改准确性。
https://stackoverflow.com/questions/66070990
复制相似问题