我正在按顺序训练多个模型,如果我保留所有模型而不进行任何清理,这将消耗大量内存。然而,在TensorFlow2.x中,我没有意识到有任何方法可以绘制图形并释放GPU内存。
我试过但没有用的东西
tf.keras.backend.clear_session在我的情况下不起作用,因为我已经定义了一些自定义图层
tf.compat.v1.reset_default_graph也不起作用。
发布于 2021-10-05 09:11:51
几乎没有解决方法来避免内存增长。任选一种
1.
del model
tf.keras.backend.clear_session()
gc.collect()allow_growth (例如,通过将TF_FORCE_GPU_ALLOW_GROWTH=true添加到环境)。这将防止TF在第一次使用时分配所有图形处理器内存,而是随着时间的推移“增长”其内存占用。通过向environment.添加,CUDA
https://stackoverflow.com/questions/69296496
复制相似问题