首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Hadoop: FSCK结果显示缺少副本

Hadoop: FSCK结果显示缺少副本
EN

Stack Overflow用户
提问于 2013-04-18 14:36:11
回答 1查看 12.5K关注 0票数 8

有人能告诉我如何修复丢失的副本吗?

============================================================================

总大小: 3447348383 B

总目录数: 120

文件总数: 98

数据块总数(已验证):133 (平均块大小25919912 B)

最小复制数据块: 133 (100.0 %)

过度复制的数据块:0(0.0%)

复制不足的数据块: 21 (15.789474 %)

错误复制的数据块:0(0.0%)

默认复制因子:3

平均数据块复制: 2.3834586

损坏的数据块:0

缺少副本: 147 (46.37224 %)

数据节点数:3

机架数量:1个

============================================================================

根据不确定指南,

损坏或丢失的数据块是最值得关注的问题,因为这意味着数据已经丢失。默认情况下,fsck会留下块损坏或丢失的文件,但您可以告诉它对这些块执行以下操作之一:

·使用-move选项将受影响的文件移动到HDFS中的/lost+found目录。文件被分解成连续的块链,以帮助您进行任何抢救工作。

·使用-delete选项删除受影响的文件。文件被删除后将无法恢复。

这里我的问题是如何找出受影响的文件?我已经使用Hive获得了所需的输出,没有任何问题。它是否会影响查询处理的性能/速度。

致以敬意,

拉杰

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2013-04-19 08:17:15

随着时间的推移,丢失的副本应该会自我修复。但是,如果您想要将它们移动到lost+found,您可以使用:

代码语言:javascript
复制
hadoop fsck / -move

或使用以下命令删除它们:

代码语言:javascript
复制
hadoop fsck / -delete

如果您只想标识具有复制不足的数据块的文件,请使用:

代码语言:javascript
复制
hadoop fsck / -files -blocks -locations

这将为您提供大量详细信息,包括预期/实际块复制计数的列表。

票数 12
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/16076102

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档