首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用有限的资源在google books n-gram数据集上进行处理最可行的选择是什么?

使用有限的资源在google books n-gram数据集上进行处理最可行的选择是什么?
EN

Stack Overflow用户
提问于 2013-03-06 22:09:10
回答 1查看 359关注 0票数 0

我需要从google图书的n-gram语料库中为每个目标单词计算大约10,000个目标单词和几百个上下文单词的单词共现统计

下面是完整数据集的链接:

Google Ngram Viewer

显而易见,数据库大小约为2.2TB,包含数千亿行。为了计算词的共现统计,我需要处理每个可能的目标词和上下文词对的全部数据。我目前正在考虑使用Hadoop和Hive来批量处理数据。考虑到这是一个有一个学期的时间限制和有限的计算资源的学术项目,还有其他可行的选择吗?

请注意,不需要对数据进行实时查询

EN

回答 1

Stack Overflow用户

发布于 2013-03-08 12:06:45

页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/15249489

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档