我希望在生产中使用CoreNLP,因此它应该具有足够的可伸缩性。(上午九时至下午五时之间有五千次查询)
我使用Python pycorenlp和使用Flask框架作为API端点。
这个Flask端点托管在弹性Bean茎(AWS)上。原因:http://flask.pocoo.org/docs/dev/deploying/
我知道可以运行斯坦福CoreNLP服务器多线程-ly。但这足够了吗?我应该运行多个coreNLP服务器吗?
,使这种组合具有足够可伸缩性的最佳实践是什么?,我假设coreNLP服务器应该运行在承载Flask端点的同一台服务器上。
发布于 2018-08-27 12:34:44
即使是单线程的CoreNLP也没有处理这么多请求的问题。例如,我目前正在运行PoS标签和平均长度的新闻文章。每一次请求最多需要几秒钟。有些模型,例如共同引用解析,要比其他模型慢得多--通过设置(例如) -annotators=pos,lemma,确保您没有运行您不需要的模型。
https://stackoverflow.com/questions/52037461
复制相似问题