首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >将TensorRT输出转换为咖啡因

将TensorRT输出转换为咖啡因
EN

Stack Overflow用户
提问于 2016-11-21 15:43:56
回答 2查看 492关注 0票数 2

我的网络包含一些当前tensorRT不支持的特定层。所以我想在tensorRT上运行conv层和pooling层,然后使用tensorRT的输出作为我的caffe模型的输入,该模型包含一些特定的层。有没有我可以参考的API或示例代码?谢谢

EN

回答 2

Stack Overflow用户

发布于 2017-08-24 18:14:36

请参阅TensorRT安装的samples目录中的源代码。

票数 0
EN

Stack Overflow用户

发布于 2017-09-28 22:47:46

对于那些在这个问题上遇到困难的人,我通过将TensorRT推理的输入和输出设置为来自caffe blob的mutable_gpu_data来实现:

代码语言:javascript
复制
auto* gpuImagePtr = inputBlob->mutable_gpu_data();
cudaMemcpy(gpuImagePtr, inputData, mNetInputMemory, cudaMemcpyHostToDevice);

std::vector<void*> buffers(2);
buffers[0] = gpuImagePtr;
buffers[1] = outputBlob->mutable_gpu_data();

cudaContext->enqueue(batchSize, &buffers[0], stream, nullptr);
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40715062

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档