首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Stanford-NLP德语依赖项解析不能正常工作

Stanford-NLP德语依赖项解析不能正常工作
EN

Stack Overflow用户
提问于 2016-08-25 04:49:27
回答 1查看 392关注 0票数 0

我最近发现(阅读下面的问题),我可以使用NNDependencyParser通过斯坦福解析器获得德语依赖项。

Dependencies are null with the German Parser from Stanford CoreNLP

我的问题是,我解析的依赖关系总是句子中简单的相邻单词,没有真正的树结构。解析"Die Sonne scheint am Himmel“我会得到成对的("Die","Sonne"),("Sonne","scheint"),("scheint","am")等作为依赖项,即使使用折叠依赖项。

代码语言:javascript
复制
    String modelPath = "edu/stanford/nlp/models/parser/nndep/UD_German.gz";
    String taggerPath = "edu/stanford/nlp/models/pos-tagger/german/german-hgc.tagger";
    String text = "Ich sehe den Mann mit dem Fernglas.";

    MaxentTagger tagger = new MaxentTagger(taggerPath);
    DependencyParser parser = DependencyParser.loadFromModelFile(modelPath);

    DocumentPreprocessor tokenizer = new DocumentPreprocessor(new StringReader(text));
    for (List<HasWord> sentence : tokenizer) {
      List<TaggedWord> tagged = tagger.tagSentence(sentence);

      GrammaticalStructure gs = parser.predict(tagged);

      for (TypedDependency td : gs.typedDependenciesCollapsed()) {
         System.out.println(td.toString());
     }
EN

回答 1

Stack Overflow用户

发布于 2016-08-26 06:40:02

是的,我们的德语依赖解析模型目前已经失效(不知何故,法语模型包含在版本中,而我们目前似乎没有工作的德语模型)。

但是,您可以使用Universal Dependencies project中的数据训练自己的模型。您可以找到一些关于如何在其project page上训练解析器的信息。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/39132797

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档