我使用GPU在一个大小为55 on的数据集上运行一些非常大的深度学习模型。如果我使用一个大于1的批处理大小,我会得到一个资源耗尽错误。即使批处理大小为1,我也会得到分割错误。
GPU内存为10 of,服务器具有32 of的RAM。
有没有办法让我知道GPU中的数据量(批处理大小为1)会有多大?我正在使用tf.Keras来拟合模型。TensorFlow中是否有torchsummary等效项?
发布于 2021-08-10 19:55:40
在keras中(现在是Tensorflow的一部分),你可以在本地使用model.summary()。参见here for more info。
https://stackoverflow.com/questions/68730597
复制相似问题