我已经成功地在定制200个类上从头开始训练了inception v3模型。现在我在我的输出目录中有了ckpt文件。如何使用这些模型来运行推理?
最好是在GPU上加载模型,并在模型保留在GPU上时随时传递图像。使用TensorFlow服务对我来说不是一个选择。
注意:我曾尝试冻结这些模型,但在冻结时未能正确放置output_nodes。我使用了ImagenetV3/Predictions/Softmax,但无法将其与feed_dict一起使用,因为我无法从冻结的模型中获取所需的张量。
在TF站点和repo上,关于这个推理部分的文档很少。
https://stackoverflow.com/questions/47498451
复制相似问题