首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >HiveContext不保留SparkContext配置

HiveContext不保留SparkContext配置
EN

Stack Overflow用户
提问于 2019-01-03 05:11:04
回答 1查看 35关注 0票数 0

我无法调整执行器和驱动程序的内存。

代码语言:javascript
复制
 from pyspark import SparkContext, SparkConf
 from pyspark.sql import HiveContext  

 conf = pyspark.SparkConf().setAll([('spark.executor.memory', '2g'),('spark.driver.memory','2g')])
 sc.stop() 

 sc = pyspark.SparkContext(conf=conf)
 sc._conf.getAll()
 hc = HiveContext(sc)
 sc._conf.getAll()

hc = HiveContext(sc)之前运行sc._conf.getAll()时,我可以看到我的内存已经根据需要进行了调整。但是,当在hc = HiveContext(sc)之后运行sc._conf.getAll()时,内存将恢复为默认值。

EN

回答 1

Stack Overflow用户

发布于 2019-01-03 22:07:17

如果可能,请使用SparkSession (从Spark2.0开始提供)而不是SparkContext,这样您就可以在.conf中添加配置

代码语言:javascript
复制
from pyspark.sql import SparkSession
warehouseLocation = "/hive/user/location"
spark2 = SparkSession\
.builder.appName("SparkAppName")\
.config("spark.sql.warehouse.dir", warehouseLocation)\
.config("spark.executor.memory", "2g")\
.config("spark.executor.executor", "3g")\
.enableHiveSupport()\
.getOrCreate()
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54013242

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档