实际上,我们正在创建一个能够将AI用例投入生产的平台。TFX是第一选择,但是如果我们想要使用非基于tensorflow的库,比如scikit、learn等,并且想要包含一个python脚本来创建模型,那该怎么办呢?这样的模型的输出将由tensorflow服务器提供。如何确保能够在一个系统设计中同时运行基于tensorflow的模型和基于非tensorflow的库和模型。请提个建议。
发布于 2020-04-23 17:56:09
下面提到的是在Google Cloud Platform.中执行Deploy和Serve a Sci-kit Learn Model的过程
第一步是使用以下代码保存/导出SciKit学习模型:
from sklearn.externals import joblib
joblib.dump(clf, 'model.joblib')下一步是将model.joblib文件上传到Google Cloud Storage.
在此之后,我们需要创建我们的模型和版本,指定我们正在加载一个scikit-learn model,,并选择Cloud ML engine,的runtime version以及我们用来导出此模型的Python版本。
接下来,我们需要将数据以简单数组的形式呈现给Cloud ML Engine,该数组编码为json文件,如下所示。我们也可以使用JSON Library。
print(list(X_test.iloc[10:11].values))
接下来,我们需要运行下面的命令来执行推理,
gcloud ml-engine predict --model $MODEL_NAME --version $VERSION_NAME --json-instances $INPUT_FILE有关更多信息,请参阅this link。
https://stackoverflow.com/questions/59027431
复制相似问题