根据Hadoop3.x发行说明,他们引入了擦除编码,以克服存储方面的问题。
擦除编码是HDFS中的一个新特性,与复制相比,它可以减少大约50%的存储开销,同时保持相同的持久性保证。
有人能解释一下,擦除编码是如何以较小的空间开销以容错方式使用的吗?
发布于 2017-07-05 09:33:45
了解HDFS擦除编码是如何工作的,并减少存储空间。
参考:“Apache中HDFS擦除编码简介”。
https://stackoverflow.com/questions/44905500
复制相似问题