首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用ONNXRuntime加载ONNX模型时出错

使用ONNXRuntime加载ONNX模型时出错
EN

Stack Overflow用户
提问于 2021-08-16 04:31:57
回答 1查看 1.1K关注 0票数 2

我正在将一个自定义的Pytorch模型转换为ONNX。但是,当使用ONNXRuntime加载它时,我遇到了如下错误:

代码语言:javascript
复制
onnxruntime.capi.onnxruntime_pybind11_state.RuntimeException: [ONNXRuntimeError] : 6 : RUNTIME_EXCEPTION : Exception during initialization: ...onnxruntime/core/providers/cpu/tensor/transpose.h:46 onnxruntime::TransposeBase::TransposeBase(const onnxruntime::OpKernelInfo &) v >= 0 && static_cast<uint64_t>(v) <= std::numeric_limits<size_t>::max() was false.

我已经和onnx.checker.check_model()确认过了,完全没问题。我还尝试在forward()函数中将transpose()替换为permute(),但错误仍然存在。

有人熟悉这个错误吗?

环境:

代码语言:javascript
复制
Python 3.7
Pytorch 1.9.0
CUDA 10.2 
ONNX 1.10.1
ONNXRuntime 1.8.1 
OS Ubuntu 18.04
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-08-16 05:18:17

节点Transpose_52perm属性为-1,0,1,尽管ONNX Runtime要求所有这些属性都应为正:onnxruntime/core/providers/cpu/tensor/transpose.h#L46

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/68797430

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档