我想使用CoreNLP中的nndep进行依赖项解析。所以输入是一个简单的德语句子,输出应该是这样的:
case(Schulen-3, An-1)
amod(Schulen-3, Stuttgarter-2)
nmod(gegrüßt-13, Schulen-3)
aux(gegrüßt-13, darf-4)
case(MitschülerInnen-7, wegen-5)
amod(MitschülerInnen-7, muslimischer-6)
nmod(gegrüßt-13, MitschülerInnen-7)
neg(gegrüßt-13, nicht-8)
advmod(nicht-8, mehr-9)
case(Gott-12, mit-10)
amod(Gott-12, Grüß-11)
nmod(gegrüßt-13, Gott-12)
root(ROOT-0, gegrüßt-13)
auxpass(gegrüßt-13, werden-14)
punct(gegrüßt-13, .-15)此命令适用于单个文件:
java -cp "*" -Xmx2g edu.stanford.nlp.parser.nndep.DependencyParser -model edu/stanford/nlp/models/parser/nndep/UD_German.gz -textFile /Users/.../input.txt但是我需要用60.000个文件来处理这个。所以我需要nlp.pipeline。如果我执行以下命令,输出只是正常的解析树,而不是解析的依赖项。
java -Xmx6g -cp "*:." -Xmx2g edu.stanford.nlp.pipeline.StanfordCoreNLP -filelist /Users/.../filelist.txt -props StanfordCoreNLP-german.properties -outputFormat text -parse.originalDependencies有人能帮帮忙吗?
发布于 2017-08-16 13:20:19
您需要添加
-annotators tokenize,ssplit,pos,lemma,parse,depparse
和
-pos.model edu/stanford/nlp/models/pos-tagger/german/german-ud.tagger
第一个添加是告诉它使用依赖解析器,第二个是告诉它使用UD POS标记器,这是必需的,因为依赖解析器需要UD POS标记。
此外,请确保使用来自GitHub的最新斯坦福CoreNLP或以下网址提供的最新发布版本(更稳定):
https://stackoverflow.com/questions/45552623
复制相似问题