我们试图在服务器上使用TensorFlow (TF)对图像进行推理。
android应用程序将jpeg图像发送到我的机器,php api执行我的android推理(python)脚本并返回分数,大约需要6s,但是我们意识到加载TF需要很长时间,但是进行推理需要很短的时间,例如,一个请求占用10%的资源,另一个10%,因此它只有20%的时间同时进行两个推理,以及两个TF模型。
我们希望后台只加载一个TF实例:
在同一时间内,服务器只加载一个TF实例。
我们正在做的是:
正在用TensorFlow调用php中的api.php
shell_exec("python3 myinferece.py image=image_path")和TF推断与: inference.py
with tf.Session(graph=graph) as sess:
scores = sess.run(our_params)最后的代码部署在aws中。
发布于 2018-07-29 02:15:49
要完成保持TensorFlow运行和接受多个推理请求的任务,您需要某种形式的进程间通信。
例如,您可以让TF Python程序通过管道等待新输入,而PHP程序每次传入新请求时都会将这些值发送给管道。
对于每一种类型的进程间通信(管道、套接字),给出一个完整的示例,会使您感到超出了问题的范围,但这应该足以让您开始工作。
https://stackoverflow.com/questions/51575507
复制相似问题