首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在Hadoop中将dfs.blocksize设置为100Kb

在Hadoop中将dfs.blocksize设置为100Kb
EN

Stack Overflow用户
提问于 2014-08-20 15:34:06
回答 1查看 2.5K关注 0票数 2

我尝试将Hadoop中的dfs.blocksize设置为100Kb,它小于默认的dfs.namenode.fs-limits.min-block-size,即1MB。

当我像这样复制文件时

代码语言:javascript
复制
hdfs dfs -Ddfs.namenode.fs-limits.min-block-size=0 -Ddfs.blocksize=102400 inp.txt /input/inp.txt

我还是能得到,

代码语言:javascript
复制
copyFromLocal: Specified block size is less than configured minimum value (dfs.namenode.fs-limits.min-block-size): 102400 < 1048576

我也尝试在hdfs-site.xml中添加此属性。但dfs.namenode.fs-limits.min-block-size似乎并没有改变。

我还能怎么改变这个属性呢?

EN

回答 1

Stack Overflow用户

发布于 2014-10-04 03:15:05

尝试更改/etc/hadoop/conf/hdfs-site.xml文件中dfs.namenode.fs-limits.min-block-size属性的值并重新启动NameNode,因为这可能是命令行设置无法覆盖的最终属性。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/25399163

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档