首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >PyTorch推断库伯奈特的高CPU利用率

PyTorch推断库伯奈特的高CPU利用率
EN

Stack Overflow用户
提问于 2022-01-26 03:36:58
回答 1查看 254关注 0票数 1

问题

我们正在尝试创建一个在AWS上加载PyTorch ResNet-101模型的推理API。显然,由于CPU和内存使用率高,它总是会杀死OOM。我们的日志显示,我们需要大约9亿CPU资源的限制。注意,我们只使用one 1.8Mb映像测试它。我们的DevOps团队并不喜欢它。

我们已经尝试过的

目前我们正在使用标准的PyTorch负载模型模块。我们还清理模型状态dict以清理内存使用。

有什么方法可以减少PyTorch模型的使用吗?

EN

回答 1

Stack Overflow用户

发布于 2022-01-26 10:06:22

你试过限制吊舱可用的CPU吗?

代码语言:javascript
复制
  - name: pytorch-ml-model
    image: pytorch-cpu-hog-model-haha
    resources:
      limits:
        memory: "128Mi"
        cpu: "1000m" # Replace this with CPU amount your devops guys will be happy about

如果您的错误是OOM,您可能想考虑为每个pod添加更多的内存吗?作为局外人,我们不知道执行模型需要多少内存,我建议使用像PyTorch剖面仪这样的调试工具来理解推断用例需要多少内存。

您还可以考虑使用内存优化工作节点,并通过标签应用部署节点亲和力,以确保在EKS集群中的内存优化节点中分配推断荚。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/70858397

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档