腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(44)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
tensorflow-serving
用于图像分割的示例
有没有人研究过如何使用tensorflow服务于图像分割任务的模板示例?
浏览 8
提问于2017-08-04
得票数 2
1
回答
Tensorflow-serving
找不到Meta图Def
我试着用Tensorflow服务(装在码头上,如果这有什么不同的话)来为训练有素的tensorflow模型服务。prediction_signature = ( inputs={'verif': tensor_info_input, 'enroll': tensor_info_input}, outputs={
浏览 1
提问于2019-11-30
得票数 2
2
回答
在
tensorflow-serving
中保存和提供模型时出错
我应该如何使用tf.saved_model.simple_save保存经过训练的模型,以便可以使用tensorflow服务发出请求 x = tf.placeholder(tf.float32, [None, 784])values = tf.placeholder(tf.float32, [None, 1]) cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with
浏览 17
提问于2019-05-02
得票数 1
1
回答
如何使用
tensorflow-serving
导出具有我自己的自定义函数的模型?
当我使用
tensorflow-serving
导出我的模型时,我有了一个新的需求,如果我只需要知道输入图像上的数字,而不是使用大量的测试数据来测试这个模型,该怎么办?
浏览 5
提问于2019-03-20
得票数 0
1
回答
将docker run命令(
tensorflow-serving
)转换为docker-compose
以下是docker run命令: docker run -p 8501:8501 \-e MODEL_NAME=img_classifier \ container_name: tfserving_classifier - 8501:8501 - -e MODEL_NAME=img_classifier
浏览 18
提问于2021-09-30
得票数 0
回答已采纳
1
回答
对于从命令行工作的同一模型,
tensorflow-serving
给出了一个"is fed and fetched“错误
当我使用saved_model_cli运行预测时,它可以正确执行,但当我尝试通过
tensorflow-serving
运行它时,相同的输入会给我一个错误。
浏览 0
修改于2019-08-29
得票数 1
1
回答
对
tensorflow-serving
Docker容器的POST请求“目标机器主动拒绝”
编辑:我需要将与容器配对的DOCKER虚拟机的端口转发到我的本地机器的相同端口。 我正在尝试使用REST API从tensorflow获取本地托管在docker工具箱容器上的模型的响应,并收到从我的主机连接到它的任何尝试的错误。我已经用尽了我能想到的任何尝试或搜索来解决我的问题。 我已经尝试连接localhost:8501和docker的IP地址192.168.99.101:8501,也没有尝试连接容器117.0.2:8501的IP地址。 以下是与我的问题有关的更多详细信息的imgur相册,以了解更多上下文,包括对接机详细信息、容器详细信息、我尝试的POST和GET请求、VirtualBox
浏览 61
修改于2019-01-22
得票数 1
4
回答
无效参数“/
tensorflow-serving
devel”用于"-t,-tag“标志:无效引用格式
我试图创建一个码头形象,为紧张流服务,如。我在这里做错什么了?我相信它对所有人都有用,除了我。我在windows 7中使用了码头工具箱,这是我第一次使用对接器。我不知道这个错误说了什么码头版本
浏览 1
修改于2018-03-19
得票数 5
回答已采纳
1
回答
如何使用python向tensorflow服务器(
tensorflow-serving
)发送请求?
我是新的tensorflow服务。 我尝试使用python3向tensorflow服务器发送请求(POST), 但是当我发送请求的时候,我得到了<400>,bad request。 但是当我在终端上发送curl时,它是工作。 curl -d '{"instances": [3]}' -X POST http://localhost:8501/v1/models/hello_world:predict 这是我的python代码。 import requests urls = 'http://localhost:850
浏览 13
提问于2019-10-11
得票数 1
回答已采纳
2
回答
在
Tensorflow-Serving
中,有可能只获得top-k预测结果吗?
当使用中的代码,但是使用DNNClassifier估计器模型时,curl/query请求返回所有可能的标签类别及其关联的分数。我能想到的唯一可能是通过签名将一些参数提供给predict API,但我还没有找到任何可以提供此功能的参数。我已经阅读了一大堆文档和代码,谷歌了一大堆,但都没有用。
浏览 0
修改于2018-12-08
得票数 2
1
回答
tensorflow-serving
是否有一个model.config文件来返回主机上的所有模型
我遵循了tensorflow的指导,通过指定版本,使用docker可以运行3个模型。但是作为主机的输出,我只能得到模型的最新版本。cna是否有任何model.config文件可帮助在主机上显示所有三个型号?
浏览 0
提问于2020-01-27
得票数 1
1
回答
对于
Tensorflow-Serving
中的新版本,有没有针对新模型的“加载策略”?
我在官方网站上读到,我们可以设置版本策略,为新版本保留资源或可丢弃,但我没有发现任何关于加载新模型的内容。我在Docker中使用tensoflow serving,我想知道它的行为,例如,如果我分配的内存已满,我试图加载一个新的内存。
浏览 6
提问于2019-08-01
得票数 0
1
回答
如何使用新版本的模型重新部署
tensorflow-serving
并通过http post访问它
我已经在tensorflow服务docker上部署并运行了一个模型。现在我想用新的和改进的模型重新部署该模型。 我已经使用以下命令部署了之前的模型: docker run -p 8501:8501 --mount type=bind,source=/opt/scripts/testing/models/model01/,target=/models/my_model -e MODEL_NAME=my_model -t tensorflow/serving 新模型保存在/opt/scripts/testing/models/model02/中
浏览 31
提问于2019-06-28
得票数 1
2
回答
使用bazel构建
tensorflow-serving
from source遇到错误:规则'@org_tensorflow//…‘的C++编译失败(退出4)
我正在尝试使用bazel在CentOS 7.3上从构建tensorflow服务。我的gcc版本是4.8.5,bazel版本是0.10.1。我确信我已经按照安装介绍进行了操作,并且我已经设置了所需的所有先决条件。每次我运行命令: bazel build -c opt tensorflow_serving/model_servers/...它将运行大约10~15分钟,稍后因错误而停止:/root/.cache/bazel/_bazel_root/2d16d9349bff8cf3d8fc4a53d2a23056/external/org_tensorflow/tensorflow/c
浏览 3
修改于2018-03-08
得票数 0
1
回答
在Windows上托管docker虚拟机时,是否可以将docker-nvidia配置为与
tensorflow-serving
一起使用?
我注意到,在查看支持GPU的tf服务的指南时,它涉及到使用,该指南目前仅适用于基于Linux的系统。由于我当前使用的docker tf服务容器本身就是一台linux机器,那么是否可以在tfserving容器内配置nvidia-docker,以便在运行Windows的主机上运行Docker时可以使用我的GPU进行模型推断?或者是我需要我的主机运行Linux?提前感谢,在我彻底搜索问题的过程中,我找不到任何关于这方面的详细信息,而且我是使用Docker
浏览 0
修改于2019-01-29
得票数 2
3
回答
std::bad_alloc的流量服务失败
microservice | To enable them in other operations, rebuild TensorFlow with the appropriate compiler flags.
tensorflow-serving
| what(): std::bad_alloc
tensorflow-serving
|
浏览 15
提问于2022-09-12
得票数 0
1
回答
如何在生产中重用TFX转换进行推理(流水线)?
我想使用TFX构建一个训练管道,并最终重用我的数据转换来向
TensorFlow-Serving
发出推理请求,而TFX应该能够做到这一点。我发现的TFX示例似乎都构建了一个批量训练管道,并最终在
TensorFlow-Serving
中推送模型,但它们没有解决推理部分,由于延迟原因,推理部分必须是流管道。
浏览 50
提问于2019-07-03
得票数 2
回答已采纳
2
回答
如何获得重新训练的inception-v3模型的“检查点”?
我尝试在
tensorflow-serving
中使用重新训练的inception-v3模型。但似乎我必须提供一个“检查点”。我想知道如何获得这些“检查点”?
浏览 0
修改于2016-11-15
得票数 4
2
回答
将tensorflow模型部署到世界
我已经使用了REST方法,使用FLASK在localhost中开发模型部署(不使用
tensorflow-serving
)。我发现google-cloud和amazon提供了模型部署服务器。
浏览 18
提问于2019-01-25
得票数 1
3
回答
向项目添加权限
gcloud.container.clusters.create) ResponseError: code=403, message=Required "container.clusters.create" permission for "projects/
tensorflow-serving
浏览 10
修改于2016-07-05
得票数 4
回答已采纳
第 2 页
第 3 页
点击加载更多
领券