假设有T个任务。我们使用体验重放(ER)策略,使用一个小片段记忆。在这里,我们使用当前的任务样本和内存中的样本来从零开始训练模型。但是,该模型对于以前和当前的任务非常好。
这种持续学习的方式是否正确,因为我们没有为下一个任务(t^{th})持续地训练以前的模型((t+1)^{th})?我们是否违反了持续学习规范?
发布于 2021-10-13 11:35:35
虽然这两种方法都是正确的,但最好是训练旧的模型,因为我们已经训练了一个模型,从头开始将花费更多。旧的模型已经有了最优的权重,所以使用新的数据,只需对模型进行微调。
只要我们有相同的分布式列车数据,模型性能就不会受到这些方法的影响。然而,作为数据科学家或ML工程师,我们优化了计算成本。ImageNet是一个令人惊奇的模型,当使用已经训练过的数据时,它提供了很好的效果。然而,如果我们想要使用不同的数据,我们必须训练模型,但只需要微调它。从零开始需要大量的时间和金钱。
结论:模型性能不会受到这些方法的影响,但从头开始的训练需要更多的时间和资源。
https://datascience.stackexchange.com/questions/103088
复制相似问题