首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >hadoop -权威指南-为什么hdfs中的块这么大?

hadoop -权威指南-为什么hdfs中的块这么大?
EN

Stack Overflow用户
提问于 2017-04-09 23:39:23
回答 1查看 56关注 0票数 0

我从权威指南(HDFS概念-块)中看到了以下段落,但我无法理解。

映射任务在MapReduce中通常一次运行在一个块上,所以如果任务太少(比集群中的节点少),作业的运行速度将比其他任务慢。

当任务较少时,与集群中的节点总数相比,我想知道作业将如何变慢。假设集群中有1000个节点和3个任务(根据任务,当每个块被发送到一个节点以完成单个任务时),获得结果所需的时间总是少于假设有1000个节点和1000个任务的场景,对吗?

我无法相信指南中给出的段落。

EN

回答 1

Stack Overflow用户

发布于 2017-04-10 05:57:52

你从书中引用的段落基本上是“尽可能多地利用节点”。如果您有1000个节点,并且只有3个块或任务,那么在您的任务上只运行3个节点,而所有其他997个节点都不会对您的任务进行任何操作。如果您有1000个节点和1000个任务,并且这1000个节点中的每个节点都有一部分数据,那么所有1000个节点都将被用于您的任务。您还可以利用数据局部性,因为每个节点都将首先处理本地数据。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43313067

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档