腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(71)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
LSTM,Keras :
推理模型
应该有多少层?
在使用keras lstm的聊天机器人模型中,
推理模型
应该具有与主模型相同数量的层,还是无关紧要?
浏览 51
提问于2020-06-03
得票数 1
回答已采纳
1
回答
贝叶斯
推理模型
有问题- JAGS with R
我一直在尝试使用R和JAGS重现下面这篇论文的结果,但没有成功。我可以运行模型,但显示的结果始终不同。 论文链接:https://www.pmi.org/learning/library/bayesian-approach-earned-value-management-2260 例如,本文的目的是使用从项目管理报告中收集的数据来估计项目完成日期或完成时的预算。项目绩效主要是通过使用挣值度量来报告的,挣值度量基本上由实际完成的工作量与截至里程碑日期的计划完成的工作量之间的比率组成(换句话说,“完成的工作量/计划的工作量”)。因此,如果我在项目的第三个月花费了300.000美元来生产之前计划花
浏览 25
提问于2018-12-30
得票数 0
2
回答
LSTM编码器-解码器
推理模型
states_value = [h, c]我的问题是,他们用“全模特”这个名字训练模特来获得最好的体重.在预测部分,他们使用了具有名称的
推理模型
浏览 1
修改于2019-04-22
得票数 4
回答已采纳
1
回答
为码头集装箱运行
推理模型
提供额外的输入
我们正在使用AWS的Sagemaker特性,带来您自己的对接器,在这里我们有用R编写的
推理模型
,据我所知,批处理转换作业以如下方式运行容器:另外,在docker
浏览 4
提问于2020-09-04
得票数 2
回答已采纳
1
回答
Tensorflow:如何减少仅用于
推理模型
的内存占用?
在推理过程中,当我们在网络中传播时,我们不需要保留前几层的激活。然而,由于我们没有显式地告诉程序丢弃它们,所以它不区分训练和推理过程。有没有一种方法-perhaps一个简单的标志,类,方法-在Tensorflow中做这种内存管理?简单地使用tf.stop_gradient就行了吗?
浏览 8
提问于2017-07-13
得票数 2
回答已采纳
1
回答
在keras seq2seq模型中,`model.predict()‘和
推理模型
有什么区别?
我看到的所有例子都有一些
推理模型
,描述了原来的模型。然后使用该
推理模型
进行预测。 我的问题是为什么我们不能直接做model.predict()。
浏览 0
提问于2021-08-10
得票数 1
回答已采纳
1
回答
如何利用Tensorflow
推理模型
生成类似于深度梦的图像
现在我想从这些检查点文件中获得一个
推理模型
,我找到了这个,我可以使用它生成深度梦图像,如本教程所解释的那样。脚本需要一个协议缓冲区文件,我不确定我用来生成
推理模型
的是否给了我proto缓冲区文件。 请有人建议我做错了什么,或者有更好的方法来实现这一点。我只想将张量生成的检查点文件转换为proto缓冲区。
浏览 3
修改于2020-06-20
得票数 6
1
回答
注意应用编解码器(Seq2Seq)
推理模型
我正在尝试为seq2seq (编码-解码)模型创建一个具有注意的
推理模型
。这是
推理模型
的定义。
浏览 4
提问于2020-07-18
得票数 0
回答已采纳
2
回答
如何为Windows独立应用程序部署经过Tensorflow训练的
推理模型
我想在Windows独立桌面应用程序中使用使用Tensorflow训练的模型。我只需要执行预测,我就可以使用Tensorflow Python来训练模型。推荐的方法是什么?是否有一种以Tensorflow作为Windows安装程序先决条件的发布Python的简单方法? 我可以在另一种技术中导入Tensorflow模型并使用它进行推理吗?OpenCv DNN模块有一个从Tensorflow导入数据的函数,但我知道它有许多局限性,并且无法使用OpenCv导入和使用
浏览 0
提问于2018-01-18
得票数 7
1
回答
seq2seq -
推理模型
在同一验证集上产生的结果与训练模型截然不同。
正如您已经知道的,为了任务的目的,应该训练一个模型,然后使用经过训练的层,建立一个
推理模型
来处理任务(即共享层)。现在,我创建了从上面的共享层派生的
推理模型
:encoder_inputs = Input(shape=(Tx, encoder_input_dimdecoder_outputs.append(out) inference_model = Model(inputs=[encoder_inputs, decoder_input], outputs=decoder_outputs)
浏览 2
提问于2020-04-17
得票数 0
1
回答
使用保存的检查点多次运行
推理模型
会产生随机错误- Tensorflow
我在GPU上运行Tensorflow 0.12.1。我有一个经过训练的Deep CNN模型,我使用检查点文件保存了它的权重。在推断过程中,我使用restorer.restore(sess, tf.train.latest_checkpoint(FLAGS.train_dir))重新加载保存的检查点。代码似乎运行没有问题,但每次我重新运行脚本时,我都会得到错误的输出。AFAIK,我不会打乱我的测试集输入。输入正在正确加载并馈送到网络。这只是CNN在相同测试集上不同运行的输出,使用相同的顺序产生非常不同的输出。我被弄糊涂了!另外,在推理过程中,如何在不运行init_op的情况下执行加载了保存的检查
浏览 6
提问于2017-01-12
得票数 0
回答已采纳
1
回答
是否有Tensorflow函数来初始化所有表[文本分类]
我在处理Tensorflow中的一个
推理模型
问题。我已经用定制对象的字典(一个特定的度量)从SavedModel加载了它。我已经建立了一个
推理模型
,并给出了一个原始字符串的张量,但是我收到了这个错误: FailedPreconditionError: Exception encountered when calling layer
浏览 10
提问于2021-12-16
得票数 1
1
回答
'openvino.inference_engine.ie_api.InferRequest‘对象没有属性’AttributeError‘
我试图在python中使用Openvino异步
推理模型
。
浏览 5
提问于2022-07-11
得票数 0
1
回答
运行时C++上的Yolov4
我需要部署一个yolov4
推理模型
,并且我想使用带有tensorRT后端的onnxruntime。我不知道如何在C++中发布处理yolov4检测结果。
浏览 6
提问于2021-01-06
得票数 0
1
回答
niftynet运行中推理部分的输出
我似乎找不到我的
推理模型
在哪里,我有.csv文件,可以看到损失,但我找不到标签文件或图像本身。
浏览 3
提问于2018-12-01
得票数 0
1
回答
耶拿猫头鹰推理器的限制是什么?
对于
推理模型
,答案应该是"yes",但Jena OWL推理程序的答案是NO...我使用......
浏览 0
修改于2016-02-26
得票数 0
1
回答
蜂形温暖地块的自定义特征
我有一个因果
推理模型
它在X变量中包含一个3次多项式。
浏览 8
修改于2022-05-12
得票数 0
1
回答
Keras模型输入语法,使用加号(+)
例如,:在对模型进行了培训之后,作者定义了
推理模型
:[decoder_inputs] + decoder_states_inputs,decoder_state_input = Input(shape=(deencoder_dims,)) decoder_outputs, state_h = decode
浏览 1
修改于2018-04-20
得票数 0
回答已采纳
1
回答
如何保存和重新加载Keras编解码模型的隐藏状态以进行推理
我正在寻找一种方法将这些隐藏的LSTM状态保存到一个文件中,然后重新加载它们来建立我的
推理模型
。state_h, state_c = encoder(encoder_inputs)以这种方式重新分配变量确实有效,但没有将它们输入
推理模型
浏览 0
提问于2019-08-22
得票数 0
2
回答
Tensorflow r.1.1中的TrainingHelper和GreedyEmbeddingHelper有什么不同(预测结果不同)?
但是在
推理模型
中(使用GreedyEmbeddingHelper),预测结果非常差(即使使用训练数据)。这看起来像是第一纪元的训练模型预测。
浏览 3
修改于2017-06-23
得票数 4
第 2 页
第 3 页
第 4 页
点击加载更多
领券