首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >读取Spark2.3.0中的Zstandard压缩文件

读取Spark2.3.0中的Zstandard压缩文件
EN

Stack Overflow用户
提问于 2018-06-15 02:16:38
回答 1查看 4.5K关注 0票数 8

据推测,Apache支持Facebook的Zstandard压缩算法,从Spark2.3.0 (https://issues.apache.org/jira/browse/SPARK-19112)开始,但我无法真正读取Zstandard压缩文件:

代码语言:javascript
复制
$ spark-shell

...

// Short name throws an exception
scala> val events = spark.read.option("compression", "zstd").json("data.zst")
java.lang.IllegalArgumentException: Codec [zstd] is not available. Known codecs are bzip2, deflate, uncompressed, lz4, gzip, snappy, none.

// Codec class can be imported
scala> import org.apache.spark.io.ZStdCompressionCodec
import org.apache.spark.io.ZStdCompressionCodec

// Fully-qualified code class bypasses error, but results in corrupt records
scala> spark.read.option("compression", "org.apache.spark.io.ZStdCompressionCodec").json("data.zst")
res4: org.apache.spark.sql.DataFrame = [_corrupt_record: string]

我需要做些什么才能读到这样的文件?

环境为AWS EMR 5.14.0。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-06-15 18:02:30

根据这句话,Spark2.3.0中对Zstandard的支持仅限于内部和洗牌输出。

读取或写入Zstandard文件使用Hadoop的org.apache.hadoop.io.compress.ZStandardCodec,它是在Hadoop2.9.0中引入的(2.8.3包含在EMR5.14.0中)。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50868307

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档