我已经在SageMaker中安装了一个Tensorflow估计器,使用framework_version='1.12.0'和python_version='py3'脚本模式,使用一个GPU实例。
如果我也选择部署实例类型作为GPU,那么直接在此评估器上调用deploy是有效的。但是,如果选择CPU实例类型和/或尝试添加加速器,则会出现错误,导致停靠程序找不到要拉的相应映像。
有人知道如何使用脚本模式在GPU上训练py3模型,然后部署到CPU+EIA实例中吗?
通过从估计器的训练工件创建TensorFlowModel,然后从模型中部署,我找到了一个部分解决办法,但这似乎不支持python 3(同样,没有找到相应的容器)。如果切换到python_version='py2',它将找到容器,但无法通过健康检查,因为我的所有代码都是针对python 3的。
发布于 2019-02-11 20:10:25
不幸的是,此时没有TF +Python3+ EI提供图像。如果要使用TF + EI,则需要确保代码与Python 2兼容。
编辑:在我最初写完这篇文章之后,对TF +Python3+ EI的支持已经发布。在撰写本文时,我相信TF 1.12.0、1.13.1和1.14.0都支持Python 3+ EI。有关完整列表,请参见https://github.com/aws/sagemaker-python-sdk#tensorflow-sagemaker-estimators。
https://stackoverflow.com/questions/54485769
复制相似问题