我注意到,在查看支持GPU的tf服务的tensorflow serving's指南时,它涉及到使用nvidia's docker,该指南目前仅适用于基于Linux的系统。由于我当前使用的docker tf服务容器本身就是一台linux机器,那么是否可以在tfserving容器内配置nvidia-docker,以便在运行Windows的主机上运行Docker时可以使用我的GPU进行模型推断?或者是我需要我的主机运行Linux?
我的印象是,由于虚拟化需求,我不能从Linux虚拟机本身运行docker实例,所以我想知道是否可以通过扩展docker本身的容量来解决这个问题。
提前感谢,在我彻底搜索问题的过程中,我找不到任何关于这方面的详细信息,而且我是使用Docker & tensorflow服务的新手。
发布于 2019-01-31 23:25:12
我不相信NVIDIA在为Windows创建nvidia-docker上有任何intention,或者至少在可预见的未来没有,因为它需要创建Windows容器来直接使用主机驱动程序。我的意思是,您将无法通过Windows主机从linux环境访问GPU。
此外,我认为docker作为一个平台在Linux上工作得最好,特别是当涉及到生产时,假设这就是你想要的。总而言之,我的建议是坚持使用久经考验的设置,比如在Linux上运行nvidia-docker + TF。你有一个社区的人,他们在你之前就做过,因此故障排除和解决问题更容易。
https://stackoverflow.com/questions/54407144
复制相似问题