首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >基于流媒体的N-Triple解析

基于流媒体的N-Triple解析
EN

Stack Overflow用户
提问于 2013-02-06 21:27:23
回答 1查看 1.2K关注 0票数 3

我对此相当困惑了一段时间,但我终于学会了如何使用Raptor和Redland Python扩展解析大型N-Triples RDF store (.nt)。

一个常见的示例是执行以下操作:

代码语言:javascript
复制
import RDF
parser=RDF.Parser(name="ntriples")
model=RDF.Model()
stream=parser.parse_into_model(model,"file:./mybigfile.nt")
for triple in model:
    print triple.subject, triple.predicate, triple.object

默认情况下,Parse_into_model()会将对象加载到内存中,因此如果要解析一个大文件,可以考虑使用HashStorage作为模型并以这种方式序列化它。

但是,如果您只想读取文件,并说,将其添加到MongoDB,而不将其加载到模型或任何类似复杂的东西中,该怎么办?

EN

回答 1

Stack Overflow用户

发布于 2013-02-06 21:27:23

代码语言:javascript
复制
import RDF

parser=RDF.NTriplesParser()

for triple in parser.parse_as_stream("file:./mybigNTfile.nt"):
  print triple.subject, triple.predicate, triple.object
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/14730255

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档