根据文档,我对本地EI进行了更改: %%timesaved_model = 's3://sagemaker-sample-data我不确定模型是否部署正确。 我可以看到模型的docker正在运行。 ? 我还尝试了Rest API post to docker部署模型: curl -v -X POST \ -H 'content-type:app
我们可以使用单元测试测试小的更改,但是我们希望在本地的其他后端部件的上下文中运行一个模型。
因此,我们使用带有computeType of LOCAL的部署配置来运行LOCAL。非本地部署是缓慢的,但我们希望本地部署会更快。不幸的是,事实并非如此。在某些情况下,将模型部署到本地端点需要20分钟的时间。直接在容器中编辑文件是一种选择,但手动同步本地文件系统的更改仍然很烦人。我们也许可以通过在本
我在Azure机器学习工作区的模型注册表中注册了一个机器学习模型。现在,我想将这样的模型包含在一个Linux接口映像中,它暴露了一个rest;然后,我必须将它作为一个IoT边缘模块部署到一个边缘PC中,在那里其他模块将在本地调用它并接收预测。我在Microsoft文档中搜索过,但我没有找到解决问题的方法,因为建议的示例和教程讨论了如何部署整个iot边缘解决方案或使用azure ml cli部署模型,相反,我必须将该模块添加到其他模块已经存在的现有<em