首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >ML培训-> API服务工作流的理想架构,具有多种模型/服务?

ML培训-> API服务工作流的理想架构,具有多种模型/服务?
EN

Software Engineering用户
提问于 2019-07-12 22:32:00
回答 1查看 74关注 0票数 2

我计划构建一个用于培训和服务NLP分类器的工作流/环境,如下所示:

  1. 模型培训系统从各种预先配置的源的子集中获取带注释的文档,以及一组关于如何运行模型的用户定义参数(例如,生成哪些n-gram特征、是否应用否定/柠檬化等)。
  2. 模型培训系统将模型文件输出到S3桶
  3. 一个基于S3的API服务在启动时从加载模型,并使用它提供实时预测。

然而,有几个注意事项:

  • 培训流程将提供多个独立的服务,而不仅仅是一个。
  • 每个服务都可能附加了多个模型(因此,一个文档的传入帖子将根据多个不同的模型预测接收具有多个分类的响应)
  • 每个服务每分钟的呼叫量相对较低(也许每隔几分钟就有一个服务呼叫)。

我已经研究过诸如SageMaker这样的现有产品,但这仅限于每个模型一个API服务。它似乎也是为每秒接收数千个电话的API服务设计的,这对我的需求来说根本不符合成本效益。

因此,我的计划是:

前/后处理包。有一个代码回购,包含分类器管道可能调用的所有预处理或后处理方法(包括训练和预测)。这些方法都包含大量由输入参数决定的逻辑方差。这段代码本身并没有被部署到任何地方。

培训服务。一个高资源的EC2实例,它导入上述的预处理/后处理包,具有指向所有可能数据源的输入连接器,并输出到S3桶。数据科学家将输入一组params和数据源(S),并在这种情况下进行培训。

模型存储输出模型存储在各种S3桶中,基于与数据源和分类器类型相关的组织结构。

API服务。一系列低资源的基于S3的API服务,它们使用配置文件来指定要从桶加载哪些模型。这还需要导入前/后处理包,这样它就可以在预测传入的文档时应用上述方法。

所以,我的问题是:

这个通用架构有意义吗?或者我应该重新考虑一些部分?

是否存在成本效益高的系统,我应该研究哪种系统比自己构建整个生态系统更好?

EN

回答 1

Software Engineering用户

发布于 2019-07-13 21:06:28

也许考虑一下Amazon,wihch正是为这个用途而设计的。它可以与Amazon (目前只有python2.7 )结合使用。

票数 0
EN
页面原文内容由Software Engineering提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://softwareengineering.stackexchange.com/questions/394623

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档