假设我们有一个经过训练的图像分类模型。从理论上讲,是否有可能在没有再培训的情况下,只对模型进行更新?如果没有,是否有任何允许增量更新的活动图像分类DL模型?
发布于 2020-03-03 10:00:37
是的,这是可能的。在转移学习中,您至少有三个选项可以处理转移的权重:
第三个是你想要做的。当然,不同的选项可以适用于不同的层。还请参见本论文:
通常的转移学习方法是训练一个基本网络,然后将它的前n层复制到目标网络的前n层。然后对目标网络的其余层进行随机初始化,并针对目标任务进行训练。您可以选择将错误从新任务反向传播到基本(复制)功能中,以便将其微调到新任务,或者将传递的功能层冻结,这意味着它们在新任务的培训期间不会更改。是否微调目标网络的前n层取决于目标数据集的大小和前n层中的参数数。如果目标数据集很小且参数数目很大,那么微调可能会导致过度拟合,因此特征往往会被冻结。另一方面,如果目标数据集较大或参数数目较少,这样就不会出现过度拟合问题,那么就可以根据新任务对基本特性进行微调,以提高性能。当然,如果目标数据集非常大,则几乎不需要传输,因为可以从目标数据集上从头开始学习较低级别的过滤器。
我把回答你问题的句子标上了粗体。
https://datascience.stackexchange.com/questions/69037
复制相似问题