首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >基于文件大小的块和Mappers

基于文件大小的块和Mappers
EN

Stack Overflow用户
提问于 2015-07-15 16:57:38
回答 2查看 61关注 0票数 1

假设我有3个文件要存储在HDFS中,并希望通过MapReduce读取它们。

因此,HDFS位置/omega/usecase/input中有3个文件作为file1.txt、file2.txt、file3.txt。

这3个文件的大小是file1.txt(64MB),file2.txt(32MB),file3.txt(1MB)

另外,假设默认块大小为64 is ,复制因子为3。

我想知道这3个文件有多少个块,如果我编写一个读取输入dir /omega/usecase/input/omega/usecase/input程序,将执行多少个映射程序?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2015-07-15 17:05:57

HDFS中将有3个块(每个文件一个)。

每个块将被复制到三台不同的机器上。因此,它们将占用大约3倍的所有文件的大小= 3 * (64 + 32 + 1) MB

执行M/R作业时,默认情况下将有3个映射器(每个块一个)。

票数 0
EN

Stack Overflow用户

发布于 2015-07-15 17:06:00

3块每个文件一个(块只是一个逻辑分离)。

三个映射程序,每块一个。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/31436552

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档