首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >spark.conf.set("spark.driver.maxResultSize",'6g')没有更新默认值- PySpark

spark.conf.set("spark.driver.maxResultSize",'6g')没有更新默认值- PySpark
EN

Stack Overflow用户
提问于 2020-07-15 10:17:17
回答 3查看 1.8K关注 0票数 0

我正在尝试将spark.driver.maxResultSize值更新为6g,但是该值没有得到更新。

代码语言:javascript
复制
spark.conf.set("spark.driver.maxResultSize", '6g')

注意:我正在Azure Databricks Notebook中运行此命令。

EN

回答 3

Stack Overflow用户

发布于 2020-07-15 16:51:16

在Spark 2.0+中,你应该能够在运行时使用SparkSession.conf.set方法来设置一些配置选项,但这主要限于配置。由于您正在尝试更新spark.driverconf,因此需要使用新的conf (如果您正在运行一个会话)来SparkSession.builder.getOrCreate新的会话。例如:

代码语言:javascript
复制
import pyspark

sc = spark.sparkContext
conf = pyspark.SparkConf().setAll([("spark.driver.maxResultSize", '6g')])

# here you stop the old spark context with old conf
sc.stop()
sc = pyspark.SparkContext(conf=conf)

或者,你可以只使用预定义的配置来getOrCreate新会话,例如,从YAML文件或代码。然后,您可以使用以下命令检查新的conf

代码语言:javascript
复制
sc.getConf().getAll()
票数 2
EN

Stack Overflow用户

发布于 2020-07-15 16:58:57

您在单配额中使用了不正确的值声明,它应该是双引号。

代码语言:javascript
复制
spark.conf.set("spark.driver.maxResultSize", '6g') 

请将其更改为:

代码语言:javascript
复制
spark.conf.set("spark.driver.maxResultSize", "6g")

票数 2
EN

Stack Overflow用户

发布于 2020-07-15 15:25:00

您可以尝试执行此操作,以查看当前驱动程序的最大大小

代码语言:javascript
复制
sqlContext.getConf("spark.driver.maxResultSize")

它将当前存储容量的最大值设置为20 GB

现在,增加:要增加maxResultSize,可以使用上面的命令。

但不建议增加到超过您的驱动程序容量

代码语言:javascript
复制
sqlContext.setConf("spark.driver.maxResultSize","30g")
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62906621

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档