首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Hadoop每个文件的数据块大小

Hadoop每个文件的数据块大小
EN

Stack Overflow用户
提问于 2012-02-07 14:26:07
回答 1查看 2.8K关注 0票数 5

在Hadoop书中,我们可以在创建文件时指定每个文件的块大小。

增加拆分大小的最自然方法是在HDFS中使用更大的数据块,方法是设置dfs.block.size,或者在文件构造时以文件为单位。

你知道如何在文件构建时做到这一点吗?我希望通过将其设置为value = file-size,文件将不会被分割

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2012-02-07 16:15:42

您可以使用CLI:

代码语言:javascript
复制
hadoop fs -D dfs.block.size=file-size -put local_name remote_location

或者,当您想要创建或复制文件时,可以使用Java API指定dfs.block.size。

代码语言:javascript
复制
Configuration conf = new Configuration();
conf.setInt("dfs.block.size",file-size);
票数 7
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/9171906

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档