首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在Windows上托管docker虚拟机时,是否可以将docker-nvidia配置为与tensorflow-serving一起使用?

在Windows上托管docker虚拟机时,是否可以将docker-nvidia配置为与tensorflow-serving一起使用?
EN

Stack Overflow用户
提问于 2019-01-29 01:17:04
回答 1查看 299关注 0票数 2

我注意到,在查看支持GPU的tf服务的tensorflow serving's指南时,它涉及到使用nvidia's docker,该指南目前仅适用于基于Linux的系统。由于我当前使用的docker tf服务容器本身就是一台linux机器,那么是否可以在tfserving容器内配置nvidia-docker,以便在运行Windows的主机上运行Docker时可以使用我的GPU进行模型推断?或者是我需要我的主机运行Linux?

我的印象是,由于虚拟化需求,我不能从Linux虚拟机本身运行docker实例,所以我想知道是否可以通过扩展docker本身的容量来解决这个问题。

提前感谢,在我彻底搜索问题的过程中,我找不到任何关于这方面的详细信息,而且我是使用Docker & tensorflow服务的新手。

EN

回答 1

Stack Overflow用户

发布于 2019-01-31 23:25:12

我不相信NVIDIA在为Windows创建nvidia-docker上有任何intention,或者至少在可预见的未来没有,因为它需要创建Windows容器来直接使用主机驱动程序。我的意思是,您将无法通过Windows主机从linux环境访问GPU。

此外,我认为docker作为一个平台在Linux上工作得最好,特别是当涉及到生产时,假设这就是你想要的。总而言之,我的建议是坚持使用久经考验的设置,比如在Linux上运行nvidia-docker + TF。你有一个社区的人,他们在你之前就做过,因此故障排除和解决问题更容易。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54407144

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档