我们有tensorflow的模型,它以uint16格式作为输入非常大的图像(>40 model )。模型输出相同大小的图像,并运行自定义编译tf-服务与GPU。最大的问题似乎与图像大小有关,因为GPU推断需要1s,而整个HTTP请求在本地tf上运行~17s --与SSD驱动器一起服务。我们的模型输出tf.image.encode_png,它被正确地命名为'_bytes‘,这样tf服务就可以正确地将它编码为base64 。从b64解码这个图像需要2.5s。由于json编码,
我正在使用Tensorflow C API来运行在python中保存/冻结的模型。我们过去在CPU上运行这些模型,但最近切换到GPU以提高性能。我最近更新了这个库,这样我们就可以传入GPU配置选项,这样我们就可以控制GPU内存分配。然而,我们现在的系统也有多个GPU,这导致了一些问题。看起来我不能让Tensorflow和我们的软件使用相同的GPU。
我使用的visible_device_list参数与我们的软件具有相同的GPU</em