在开发DBpedia提取框架时,我遇到了来自核心数据集的csv文件的问题。我对从dbpedia转储(RDF格式)中提取数据(在我的例子中,是所有公司wikipedia页面的摘要)很感兴趣。我在遵循DBpedia Abstract Extractioin Step-by-step Guide的指示
使用的命令:
$ git clone git://github.com/dbpedia/extraction-framework.git
$ cd extraction-framework
$ mvn clean install
$ cd dump
$ ../run download config=download.minimal.properties
$ ../run extraction extraction.default.properties在执行最后一个命令"./run extraction extraction.properties.file“时,我得到了下面的错误。有人能指出我做错了什么吗?是否有任何需要处理的特定csv文件或某些配置问题。我有完整的"mediawiki-1.24.1“。
另外请注意,在pages-articles.xml.bz2上,我只下载了部分大小为256MB的文件。请帮帮忙
parsing /opt/extraction-framework-master/DumpsD ata/wikid atawiki/20150113/wikipedias.csv
java.lang.reflect.Invoc ationTargetException
at sun.reflect.N ativeMethodAccessorImpl.invoke0(N ative Method)
at sun.reflect.N ativeMethodAccessorImpl.invoke(N ativeMethodAccessorImpl.java:62)
at sun.reflect.Deleg atingMethodAccessorImpl.invoke(Deleg atingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:483)
at scala_maven_executions.MainHelper.runMain(MainHelper.java:164)
at scala_maven_executions.MainWithArgsInFile.main(MainWithArgsInFile.java:26)
Caused by: java.lang.Exception: expected [15] fields, found [1] in line [%21%21%21 http://www.w3.org/2000/01/rdf-schema#label !!! l]
at org.dbpedia.extraction.util.WikiInfo$.fromLine(WikiInfo.scala:60)
at org.dbpedia.extraction.util.WikiInfo$$anonfun$fromLines$1.apply(WikiInfo.scala:49)
at org.dbpedia.extraction.util.WikiInfo$$anonfun$fromLines$1.apply(WikiInfo.scala:49)
at scala.collection.Iter ator$class.foreach(Iter ator.scala:743)
at scala.collection.AbstractIter ator.foreach(Iter ator.scala:1195)
at org.dbpedia.extraction.util.WikiInfo$.fromLines(WikiInfo.scala:49)
at org.dbpedia.extraction.util.WikiInfo$.fromSource(WikiInfo.scala:36)
at org.dbpedia.extraction.util.WikiInfo$.fromFile(WikiInfo.scala:27)
at org.dbpedia.extraction.util.ConfigUtils$.parseLanguages(ConfigUtils.scala:83)
at org.dbpedia.extraction.dump.sql.Import$.main(Import.scala:29)
at org.dbpedia.extraction.dump.sql.Import.main(Import.scala)发布于 2015-02-19 15:02:11
由于enwiki-20150205-pages-articles.xml.bz2文件下载不完整,我遇到了上述问题
$ ../run download config=download.minimal.properties但未能解决抽象提取问题,因为我期望从bdpedia转储中提取出很长的摘要。
$ ../run extraction extraction extraction.abstracts.properties它完全构建并在1个cr+页面上执行提取,但不反映long_abstracts_en.nt中的任何数据
我按照指示将mediawiki、php和mysql等放入。
https://stackoverflow.com/questions/28318185
复制相似问题