为了评价多GPU训练的效果,我尝试了三种使用角点分割的UNet模型。
谁能说出多GPU训练是否会缩短训练时间?作为参考,我尝试了所有的模型使用角角。
发布于 2020-03-24 10:55:33
我认为这是因为您使用了一个非常小的batch_size;在这种情况下,在两个GPU上分发梯度/计算并将它们取回(以及CPU到GPU(2)数据分发)的成本超过了相对于顺序训练(在一个GPU上)的并行时间优势。
例如,当批处理大小为8/16时,预期会看到更大的差异。
https://stackoverflow.com/questions/60829567
复制相似问题