首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么在Caffe2上使用LibTorch或Core而不是LibTorch(.pt文件)?

为什么在Caffe2上使用LibTorch或Core而不是LibTorch(.pt文件)?
EN

Stack Overflow用户
提问于 2020-06-05 08:42:51
回答 1查看 333关注 0票数 4

似乎有几种方法可以在iOS上运行Pytorch模型。

caffe2

  • PyTorch(.pt)
  1. PyTorch(.pt) -> onnx -> -> onnx -> Core-ML (.mlmodel)
  2. PyTorch(.pt) -> LibTorch (.pt)
  3. PyTorch Mobile?

上述方法的区别是什么?为什么人们使用caffe2或Core (.mlmodel),它需要模型格式转换,而不是LibTorch?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-06-05 09:49:52

核心ML可以使用(ANE),这比在CPU或GPU上运行模型要快得多。如果设备没有ANE,Core可以自动返回到GPU或CPU。

我还没有对PyTorch移动进行详细的研究,但我认为它目前只运行在CPU上,而不是在GPU上。而且它肯定不会在ANE上运行,因为只有Core才能做到这一点。

转换模型可能是一个麻烦,特别是来自PyTorch,它需要首先通过ONNX。但你最终会有一种更快的方式来运行这些模型。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62211409

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档