我已经创建了一个模型端点,它是InService,并部署在ml.m4.xlarge实例上。我还使用创建了一个RESTful API。
问题:
我知道这个网站比较不同的实例类型(https://aws.amazon.com/sagemaker/pricing/instance-types/)。
但是,适度的网络性能是否意味着执行实时推理的时间可能会更长?
任何建议都是非常感谢的。这样做的目的不是在用户不要求预测的情况下烧钱。
发布于 2020-07-07 13:21:55
你的型号有多大?如果它低于拉姆达所要求的50 MB大小限制,并且依赖项足够小,那么可以有一种直接依赖Lambda作为执行引擎的方法。
如果您的模型大于50 MB,那么仍然可以通过将它存储在EFS上来运行它。见Lambda的EFS。
发布于 2020-12-09 20:47:38
如果您愿意等待5-10分钟SageMaker的启动,您可以通过以下操作来完成这一任务:
祝好运!
https://stackoverflow.com/questions/62765780
复制相似问题