首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >SparkSQL序列化缓存

SparkSQL序列化缓存
EN

Stack Overflow用户
提问于 2015-10-01 15:50:33
回答 1查看 1.4K关注 0票数 2

星火核心支持原始存储和序列化的RDD缓存。

这篇好文章是解释这篇。

如果您使用persist --您可以指定缓存的任何水平,但是如果您使用的是cache,则根据这个问题,默认情况下只能使用MEMORY_ONLY而不进行序列化。

有人知道如何在MEMORY_ONLY_SER中使用SparkSQL缓存吗?

cacheTable(my_table)将使用MEMORY_ONLY选项缓存,而不是使用MEMORY_ONLY_SER缓存,即使在默认情况下,在火花环境中有spark.storage.StorageLevel=MEMORY_ONLY_SER。

我的目标是使用来自SparkSQL的序列化表缓存。有什么想法吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2015-10-15 15:31:34

尝试以下几点:

爪哇:

代码语言:javascript
复制
Option<String> tableName = new Some<String>("MyTable");
hiveContext.cacheManager().cacheQuery(hiveContext.table(tableName.get()),  tableName, StorageLevel.MEMORY_ONLY_SER());

Scala:

代码语言:javascript
复制
...cacheQuery(sqlContext.table(tableName), Some(tableName), MEMORY_ONLY_SER)

星星之火1.3.0+:

请参阅1.3.1分支代码

参见1.5.1分支代码 (使用hiveContext.isCached(tableName)验证)

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/32891818

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档