首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用定制的拼花压缩算法?

如何使用定制的拼花压缩算法?
EN

Stack Overflow用户
提问于 2018-01-06 11:02:55
回答 1查看 1.5K关注 0票数 3

是否可以在Spark中使用自定义的压缩算法来读写Parquet文件?

理想情况下,它将配置如下:

代码语言:javascript
复制
sqlContext.setConf("spark.sql.parquet.compression.codec", "myalgo")
EN

回答 1

Stack Overflow用户

发布于 2018-01-06 11:55:21

不,正如所述的在文件中 (此处指的是2.2.0版本),唯一可接受的值是

  • uncompressed
  • snappy
  • gzip
  • lzo

snappy是默认的。

这是由于Parquet本身的限制,它只使用一组受限的压缩算法,如此枚举中所列(1.5.0版有效)。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48126680

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档