腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(618)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
ONNX
网络可能与
ONNX
不兼容吗?
我在
ONNX
模型上运行推理时遇到了麻烦,要么是对this Windows ML tutorial进行(微小的)调整,要么是在他们的MNIST Tutorial之后实现我自己的
ONNX
Runtime代码据我所知,Windows ML使用了
ONNX
Runtime,所以这两种努力可能会在同一个地方结束……并且可能出于相同的原因生成相同的底层异常。该网络是通过采用保存的Tensorflow/Keras模型并运行以下转换而生成的: python -m tf2
onnx
.convert --saved-model MyNe
浏览 32
提问于2021-01-19
得票数 0
1
回答
如何使用
ONNX
.js加载
onnx
模型
我试图使用onnxjs导入
ONNX
模型,但我得到了以下错误:下面显示了我的html文件中的代码片段。-- Load
ONNX
.js --> <script src="https://cdn.jsdelivr.net/npm/onnxjs/dist/
浏览 7
修改于2022-02-25
得票数 1
回答已采纳
1
回答
在c++中设置
onnx
解析
onnx
图
我试图加载一个
onnx
文件并打印图中的所有张量维(必须执行形状推断)。我只需导入from
onnx
import shape_inference,
onnx
就可以在python中做到这一点。是否有任何关于在c++程序中设置
onnx
来使用它的文档?
浏览 6
提问于2022-04-04
得票数 0
2
回答
如何将
Onnx
模型(.
onnx
)转换为Tensorflow (.pb)模型
我已经编写了代码,但是我收到了错误: import
onnx
from
onnx
_tf.backend importprepare
onnx
_model =
onnx
.load("original_3dl
浏览 29
修改于2020-08-17
得票数 3
回答已采纳
2
回答
ONNX
模型的分裂
因为它必须是跨平台的,并且与每个框架一起工作,所以我需要直接从
ONNX
模型开始。我知道如何从tensorflow/keras开始生成
ONNX
模型,以及如何运行
ONNX
模型,但我意识到在
ONNX
文件上很难工作,比如可视化和修改它。是否有人能帮助我理解如何拆分和
ONNX
模型,或者至少运行
ONNX
模型的一部分(比如从输入到N层,从N层到输出)?python -m tf2
onnx
.convert --saved-model saved_model --output
浏览 22
提问于2021-10-04
得票数 0
3
回答
尝试使用
onnx
-tf库将.
onnx
模型转换为.pb模型
我试图通过使用
onnx
包将.
onnx
模型转换为.pb格式,但是在调用
onnx
_tf.backend.prepare函数之后,python内核就崩溃了。我使用的代码如下:import tensorflowtf_rep = pr
浏览 20
提问于2020-09-14
得票数 0
回答已采纳
2
回答
opencv中的负荷
onnx
模型
错误:0@0.003全局/home/opencv_build/opencv/modules/dnn/src/
onnx
/
onnx
_importer.cpp (2564) parseShape DNN/
ONNX
handleNode DNN/
ONNX
:在处理节点时出现错误,其中有一个输入和一个输出:域=‘ai.
onnx
’在抛出'cv::Exception‘实例后调用parseShape:(
onn
浏览 6
修改于2022-09-06
得票数 1
1
回答
linux上的
Onnx
安装问题
我试图在linux计算机上安装
onnx
,当我使用python3 -m pip install
onnx
作为 /tmp/pip-install-7ajubmjo/
onnx
_08cda1ef5f1d460ab7b455210cf3083e/
onnx
/defs/sequence/defs.cc: In function ‘bool
onnx
::BuildSequenceMapBodyFunc(const
onnx
::Func
浏览 31
修改于2022-09-12
得票数 0
2
回答
onnx
自定义op注册
我正在寻找与
ONNX
/
ONNX
运行时中的keras自定义层类似的特性。我理解解决这个问题的方法是在
onnx
中实现一个自定义操作符以便进行实验。('A',
onnx
.TensorProto.FLOAT, [4])C =
onnx
.helper.make_tensor_value
浏览 15
提问于2022-03-09
得票数 0
1
回答
onnx
2nnoir:安装nnoir-
onnx
后找不到的命令
我下载了一个.
onnx
模型(),并试图转换成.nnoir格式。我已经将文件重命名为model.
onnx
,并试图使用库描述()的示例部分中给出的命令行来转换它。user02@ubuntu:~/Downloads$
onnx
2nnoir -o model.nnoir model.
onnx
user02@ubuntu:~/Downloads$ pip install nnoir-
onnx
Requirement a
浏览 3
修改于2022-07-25
得票数 0
回答已采纳
1
回答
tf2
onnx
Tensorflow to
Onnx
不一致的输出
我正在尝试创建一个超级简单的Tensorflow网络(一个数据处理Lambda层),然后将模型转换为
ONNX
,并在从
ONNX
调用
ONNX
模型时验证结果是否匹配。OnnxInvestigateData/pipeline2", overwrite=True, include_optimizer=False, save_format='tf') 然后在shell中,我可以使用tf2
onnx
将其转换为
ONNX
格式: python -m tf2
onnx
.co
浏览 37
提问于2021-07-15
得票数 0
回答已采纳
4
回答
onnx
图,如何获得输出尺寸?
如何在
onnx
神经网络中获得输出层的维度?我可以得到
onnx
图,但没有输出尺寸: ~/
onnx
-tensorrt/third_party/
onnx
/
onnx
/tools/net_drawer.py --input ./weights/tiny_3l_v5_11_608.
onnx
--output ./weights/tiny_3l_v5_11_608.dot --embed_docstr
浏览 114
提问于2019-08-21
得票数 4
1
回答
ONNX
GRAPH PYTHON
python将
onnx
模型加载为协议缓冲区,我的问题是-“节点”,
浏览 4
提问于2019-12-24
得票数 1
1
回答
将
onnx
模型转换为keras
我尝试将
ONNX
模型转换为Keras,但当我调用转换函数时,收到以下错误消息"TypeError: unhashable type: 'google.protobuf.pyext._message.RepeatedScalarContainer'"你可以在这里看到
ONNX
模型:from
onnx
2kerasimport
onnx
_to_keras
浏览 12
提问于2019-10-15
得票数 3
2
回答
如何在类似sklearn的
onnx
(
onnx
运行时)上进行多次推断
我想在python中使用
onnx
运行时,根据来自
onnx
模型的许多输入推断输出。一种方法是使用for循环,但它似乎是一个非常琐碎和缓慢的方法。是否有一种方法可以与学习滑雪的方法相同?对on运行时的单个预测:sess = ort.InferenceSession("xxxxx.
onnx
")label_name = sess.get_outputs()[0].name pred_
onnx
=
浏览 5
提问于2020-12-18
得票数 2
1
回答
导出
onnx
模型时出错。
下面是模型:TyperError
浏览 13
提问于2022-02-24
得票数 0
2
回答
pytorch to
Onnx
(OCR型号)
我正在尝试将给定的存储库中的pytorch模型转换为
onnx
。 在这样做的同时,我也面临着这个问题。Failed to export an
ONNX
attribute '
onnx
::Gather', since it's not constant, please try to make things
浏览 21
提问于2020-06-02
得票数 1
回答已采纳
5
回答
无法将Pytorch转换为
ONNX
尝试使用
ONNX
转换 pytorch模型时出现此错误。我搜索过github,这个错误以前在1.1.0版本中出现过,但显然已经被纠正了。现在我使用的是torch 1.4.0。File "/usr/local/lib/python3.6/dist-packages/torch/
onnx
/init.py", line 148, in export strip_doc_string, dynamic_axes, keep_initializers_as_inputs)
浏览 386
修改于2020-03-15
得票数 2
1
回答
ONNX
运行时在加载
onnx
模型时抛出TypeError
我已经将savedModel格式转换为
onnx
模型,但是当通过
onnx
加载它时 import onnxruntime as rt sess = rt.InferenceSession('model.
onnx
ONNXRuntimeError] : 10 : INVALID_GRAPH : Load model from /mnt/model/io_files/convert/1606801475/model.
onnx
浏览 379
修改于2020-12-01
得票数 0
1
回答
从InferenceSession导出的故障
ONNX
PyTorch
ONNX
模型
我试图将自定义的PyTorch模型导出到
ONNX
以执行推理,但没有成功.这里的棘手之处在于,我试图使用基于脚本的导出程序,如示例中所示,以便从我的模型中调用一个函数。我可以在没有任何抱怨的情况下导出模型,但是当尝试启动InferenceSession时,我会得到以下错误: Fail: [ONNXRuntimeError] : 1 : FAIL : Load model from ner.
onnx
浏览 9
提问于2021-03-18
得票数 1
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券