首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么我们在hadoop中使用分布式缓存?

为什么我们在hadoop中使用分布式缓存?
EN

Stack Overflow用户
提问于 2015-06-29 13:38:58
回答 2查看 893关注 0票数 1

无论如何,在map reduce框架中有很多跨节点的文件传输。那么分布式缓存的使用如何提高性能呢?

EN

回答 2

Stack Overflow用户

发布于 2015-06-29 14:19:06

DistributedCache是Map-Reduce框架提供的用于缓存应用程序所需文件的工具。一旦您为您的作业缓存了一个文件,hadoop框架将使它在您运行map/reduce任务的每个数据节点上(在文件系统中,而不是在内存中)可用。这些文件通过网络传输,通常是通过HDFS。对于非数据本地任务,它不会给网络带来比使用HDFS更多的压力。

票数 0
EN

Stack Overflow用户

发布于 2015-07-01 09:31:42

  1. 在程序运行时,不会有大量的文件传输。想法是最大限度地减少网络数据传输。这就是为什么计算被移到数据附近的原因。
  2. 分布式缓存是所有map或reduce任务都需要的数据,而不像普通数据那样只需要部分数据(任务拆分)。这就是为什么它会分布到所有运行任务的节点上。
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/31108514

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档