首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >斯坦福大学CoreNLP: nndep.DependencyParser正在与geman模型合作

斯坦福大学CoreNLP: nndep.DependencyParser正在与geman模型合作
EN

Stack Overflow用户
提问于 2017-08-08 01:34:48
回答 1查看 139关注 0票数 2

我想使用CoreNLP中的nndep进行依赖项解析。所以输入是一个简单的德语句子,输出应该是这样的:

代码语言:javascript
复制
case(Schulen-3, An-1)
amod(Schulen-3, Stuttgarter-2)
nmod(gegrüßt-13, Schulen-3)
aux(gegrüßt-13, darf-4)
case(MitschülerInnen-7, wegen-5)
amod(MitschülerInnen-7, muslimischer-6)
nmod(gegrüßt-13, MitschülerInnen-7)
neg(gegrüßt-13, nicht-8)
advmod(nicht-8, mehr-9)
case(Gott-12, mit-10)
amod(Gott-12, Grüß-11)
nmod(gegrüßt-13, Gott-12)
root(ROOT-0, gegrüßt-13)
auxpass(gegrüßt-13, werden-14)
punct(gegrüßt-13, .-15)

此命令适用于单个文件:

代码语言:javascript
复制
java -cp "*" -Xmx2g edu.stanford.nlp.parser.nndep.DependencyParser -model edu/stanford/nlp/models/parser/nndep/UD_German.gz -textFile /Users/.../input.txt

但是我需要用60.000个文件来处理这个。所以我需要nlp.pipeline。如果我执行以下命令,输出只是正常的解析树,而不是解析的依赖项。

代码语言:javascript
复制
java -Xmx6g -cp "*:." -Xmx2g edu.stanford.nlp.pipeline.StanfordCoreNLP  -filelist /Users/.../filelist.txt -props StanfordCoreNLP-german.properties -outputFormat text -parse.originalDependencies

有人能帮帮忙吗?

EN

回答 1

Stack Overflow用户

发布于 2017-08-16 13:20:19

您需要添加

-annotators tokenize,ssplit,pos,lemma,parse,depparse

-pos.model edu/stanford/nlp/models/pos-tagger/german/german-ud.tagger

第一个添加是告诉它使用依赖解析器,第二个是告诉它使用UD POS标记器,这是必需的,因为依赖解析器需要UD POS标记。

此外,请确保使用来自GitHub的最新斯坦福CoreNLP或以下网址提供的最新发布版本(更稳定):

https://stanfordnlp.github.io/CoreNLP/download.html

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/45552623

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档