我正在训练一个深入学习的视频序列多目标跟踪模型。视频帧在1fps上被提取和注释。为了利用平滑的时间一致性,我在每个2注释的帧之间提取了中间的24个帧。现在,我在25fps中提取了所有的框架,但是只有在最初注释的25帧的间隔内才能获得基本的真实标签。
我想通过在前传期间提供所有光滑的25fps帧来训练一个深度学习模型,但是在后台,我只想计算和优化带注释的1fps帧的损失。
对我该怎么做有什么建议吗?尤其是当我的mini-batch size小于25时。
发布于 2019-02-14 15:02:26
到目前为止,我所做的一件有用的事情是为未加注释的框架设置-1标签,并在计算丢失时跳过它们。这可能是次优,但有效,谁有更好的主意?
https://stackoverflow.com/questions/54532282
复制相似问题