我使用tf2onnx将tensorflow保存模型转换为ONNX格式:
python3 -m tf2onnx.convert --saved-model saved_model/ --output onnx/model.onnx --opset 11转换工作良好,我可以使用CPU运行ONNX模型的推理。
我安装了onnxruntime-gpu以使用GPU运行推理,并遇到了一个错误:
RuntimeException: [ONNXRuntimeError] : 6 : RUNTIME_EXCEPTION : Non-zero status code returned while running Relu node. Name:'FirstStageFeatureExtractor/resnet_v1_101/resnet_v1_101/conv1/Relu' Status Message: /onnxruntime_src/onnxruntime/core/providers/cuda/cuda_call.cc:97 bool onnxruntime::CudaCall(ERRTYPE, const char*, const char*, ERRTYPE, const char*) [with ERRTYPE = cudaError; bool THRW = true] /onnxruntime_src/onnxruntime/core/providers/cuda/cuda_call.cc:91 bool onnxruntime::CudaCall(ERRTYPE, const char*, const char*, ERRTYPE, const char*) [with ERRTYPE = cudaError; bool THRW = true] CUDA failure 2: out of memory ; GPU=0 ; hostname=coincoin; expr=cudaMalloc((void**)&p, size);
Stacktrace:
Stacktrace:我是唯一使用GPU的人,这是一个泰坦RTX (24 am的RAM)。该模型运行良好的GPU使用其tensorflow保存的模型版本,10 on的GPU的RAM。
版本如下:
1.6.0
发布于 2021-07-21 07:14:29
根据您的信息和版本,可能有两个解决方案来解决这个问题:
。

config = tf.ConfigProto()
config.gpu_options.visible_device_list = "0"
config.gpu_options.per_process_gpu_memory_fraction = 0.1
set_session(tf.Session(config=config)) 。
https://stackoverflow.com/questions/68411284
复制相似问题