首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >dfs.blocksize,file.blocksize,kfs.blocksize等在hadoop工作中有什么作用?

dfs.blocksize,file.blocksize,kfs.blocksize等在hadoop工作中有什么作用?
EN

Stack Overflow用户
提问于 2014-08-06 09:54:39
回答 1查看 482关注 0票数 2

当我检查hadoop (版本0.21.0) mapreduce作业的job.xml文件时,我发现存在多个blocksize设置:

  • dfs.blocksize = 134217728 (即128)
  • file.blocksize = 67108864 (即64)
  • kfs.blocksize = 67108864
  • s3.blocksize = 67108864
  • s3native.blocksize = 67108864
  • ftp.blocksize = 67108864

我期望得到一些答案来解释以下相关问题:

  1. 在这个语境中,dfsfilekfss3等是什么意思?
  2. 他们之间有什么不同?
  3. 当运行mapreduce作业时,它们有什么效果?

非常感谢!

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2014-08-06 10:26:01

Map还原可以处理存储在不同类型的存储上的数据,上面的systems.The设置是使用的存储技术的默认块大小。dfs(分布式文件系统)是我们在hadoop中常用的默认块大小128 is。其他设置包括文件(本地)、kfs(kosmos分布式文件系统)、s3(亚马逊云存储)和ftp (ftp服务器上的文件)。

您可以进一步研究它们,以便更好地理解它们,并将它们与运行映射减少作业的hadoop features.While一起使用,为所使用的特定存储技术的设置确定块大小。希望能帮上忙。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/25157285

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档