首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何缩放CoreNLP +水瓶?

如何缩放CoreNLP +水瓶?
EN

Stack Overflow用户
提问于 2018-08-27 10:37:37
回答 1查看 224关注 0票数 0

我希望在生产中使用CoreNLP,因此它应该具有足够的可伸缩性。(上午九时至下午五时之间有五千次查询)

我使用Python pycorenlp和使用Flask框架作为API端点。

这个Flask端点托管在弹性Bean茎(AWS)上。原因:http://flask.pocoo.org/docs/dev/deploying/

我知道可以运行斯坦福CoreNLP服务器多线程-ly。但这足够了吗?我应该运行多个coreNLP服务器吗?

,使这种组合具有足够可伸缩性的最佳实践是什么?,我假设coreNLP服务器应该运行在承载Flask端点的同一台服务器上。

EN

回答 1

Stack Overflow用户

发布于 2018-08-27 12:34:44

即使是单线程的CoreNLP也没有处理这么多请求的问题。例如,我目前正在运行PoS标签和平均长度的新闻文章。每一次请求最多需要几秒钟。有些模型,例如共同引用解析,要比其他模型慢得多--通过设置(例如) -annotators=pos,lemma,确保您没有运行您不需要的模型。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52037461

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档