我想知道在GPU上训练的模型是否可以用来与cpu一起运行推理?(反之亦然)感谢你!
发布于 2016-12-05 17:41:30
您可以这样做,只要您的模型没有明确的设备分配。IE,如果您的模型有像with tf.device('gpu:0')这样的块,当您在没有GPU的模型上运行它时,它会抱怨。
with tf.device('gpu:0')
在这种情况下,您必须确保导入的模型没有显式的设备分配,但在图表中使用图表参数
https://stackoverflow.com/questions/40980035
相似问题