我想使用TF2,最好是EfficientDet D7网络来训练一个大型目标检测模型。对于我的16 GB内存的Tesla P100卡,我遇到了一个“内存不足”异常,即显卡上没有足够的内存可以分配。
所以我想知道在这种情况下我的选择是什么。如果我有多个GPU,那么TF模型将被拆分,以便填满两个卡的内存,这是正确的吗?因此,在我的情况下,使用第二张16 GB的Tesla卡,我在训练期间总共将拥有32 GB?如果是这样的话,我可以使用多个GPU的云提供商也是如此吗?
此外,如果我错了,在训练期间为多个GPU拆分一个模型将不起作用,那么还有什么方法可以训练一个不适合我的GPU内存的大型网络?
PS:我知道我可以将batch_size减少到1,但不幸的是,对于非常大的模型,这仍然不能解决我的问题…
发布于 2021-03-18 17:26:41
https://stackoverflow.com/questions/66443220
复制相似问题