首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >是否可以加快本地AzureML模型的部署?

是否可以加快本地AzureML模型的部署?
EN

Stack Overflow用户
提问于 2019-12-13 19:47:53
回答 1查看 369关注 0票数 1

我们希望能够快速测试对entry_script.py的更改。我们可以使用单元测试测试小的更改,但是我们希望在本地的其他后端部件的上下文中运行一个模型。

因此,我们使用带有computeType of LOCAL的部署配置来运行LOCAL。非本地部署是缓慢的,但我们希望本地部署会更快。不幸的是,事实并非如此。在某些情况下,将模型部署到本地端点需要20分钟的时间。

是否有一种方法可以加快速度以加快编辑-调试循环,还是有更好的方法来处理此场景?

我在想的事情很少:

  • I认为az ml service update可以是一个选项,但即使这样也需要很长时间。直接在容器中编辑文件是一种选择,但手动同步本地文件系统的更改仍然很烦人。
  • I正在考虑在容器中安装文件夹,但似乎存在一些神奇的AzureML功能,例如将entry_script.py复制到/var/azureml-app/main.py。我们也许可以通过在本地创建一个与布局匹配的dist文件夹并将其挂载到容器中来模拟这种情况,但我不确定这个文件夹布局是否会改变,或者AzureML还会做其他事情。
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-12-16 11:53:02

请按照下面的笔记本,如果你想测试快速部署模型,你应该查看https://github.com/Azure/MachineLearningNotebooks/tree/master/how-to-use-azureml/deployment/deploy-to-local

SDK允许在本地构建和运行对接器,并在脚本上迭代以节省时间时进行相应的更新。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59328925

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档