我正在用显微镜图像对细胞进行语义分割。我正在探索U-网和FCN DenseNets的任务。在U网论文中,作者仅从30幅图像中训练了模型,但广泛地使用了数据增强,特别是弹性变形。我也没有什么数据,有15-20张带注释的图片。因此,我也计划使用数据增强。我也用弹性变形。
我正在使用的其他技巧:
这将使我的数据集增加10-20倍。
我的问题是我是使用离线增强还是实时增强?
从我到目前为止所读到的:如果数据集很大的话,可以使用快速增强(如果数据集很大的话),以避免数据集的大小爆炸。我知道这是非常普遍的。我也在卡格尔上看到了这一点:对于在线数据增强,模型只看到一个随机生成的样本一次,从而得到更好的概括。
同样,我正在使用这么多的数据增强技术,这些技术在数据集如此小的情况下是有用的,还是仅限于这些技术中的一部分?
任何帮助都是非常感谢的。
发布于 2020-11-28 14:56:25
我认为您的数据太少了,假设您必须将其进一步分离到培训、测试和验证集。你的模型不能很好地推广。考虑获取更多的数据(至少1500-2000个样本)。
https://datascience.stackexchange.com/questions/67945
复制相似问题