首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如果我们每次都用当前任务和记忆样本(ER)从头开始训练一个模型,那么进行持续学习是正确的吗?

如果我们每次都用当前任务和记忆样本(ER)从头开始训练一个模型,那么进行持续学习是正确的吗?
EN

Data Science用户
提问于 2021-10-12 18:12:37
回答 1查看 23关注 0票数 0

假设有T个任务。我们使用体验重放(ER)策略,使用一个小片段记忆。在这里,我们使用当前的任务样本和内存中的样本来从零开始训练模型。但是,该模型对于以前和当前的任务非常好。

这种持续学习的方式是否正确,因为我们没有为下一个任务(t^{th})持续地训练以前的模型((t+1)^{th})?我们是否违反了持续学习规范?

EN

回答 1

Data Science用户

发布于 2021-10-13 11:35:35

虽然这两种方法都是正确的,但最好是训练旧的模型,因为我们已经训练了一个模型,从头开始将花费更多。旧的模型已经有了最优的权重,所以使用新的数据,只需对模型进行微调。

只要我们有相同的分布式列车数据,模型性能就不会受到这些方法的影响。然而,作为数据科学家或ML工程师,我们优化了计算成本。ImageNet是一个令人惊奇的模型,当使用已经训练过的数据时,它提供了很好的效果。然而,如果我们想要使用不同的数据,我们必须训练模型,但只需要微调它。从零开始需要大量的时间和金钱。

结论:模型性能不会受到这些方法的影响,但从头开始的训练需要更多的时间和资源。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/103088

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档