首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Scala中的Spark -设置CPU数量

Scala中的Spark -设置CPU数量
EN

Stack Overflow用户
提问于 2017-01-31 06:58:38
回答 2查看 115关注 0票数 0

我试图限制我的CPU使用率,但我得到了这个奇怪的结果:当我试图限制到3个CPU时,我仍然得到一个* master的sparck上下文:

EN

回答 2

Stack Overflow用户

发布于 2017-01-31 14:10:51

在没有更多信息的情况下,我猜测您是在spark shell内部执行此操作。这意味着主节点已经设置好并将被使用。注意,该调用是getOrCreate,这意味着它只会在无法获取已有内容的情况下创建。

票数 0
EN

Stack Overflow用户

发布于 2017-01-31 16:56:24

这是因为您已经有了一个SparkSession对象。

如果线程上下文中有活动会话,则将使用此会话。您的notebook有一个附加的会话,这就是getOrCreate返回现有SparkSession的原因。

查看您的日志,您可能会有:

代码语言:javascript
复制
Using an existing SparkSession; some configuration may not take effect.

然后,您可以清理活动会话:

代码语言:javascript
复制
SparkSession.clearActiveSession()

但在笔记本电脑中不建议这样做,因为它可能会在服务器上的其他笔记本电脑中导致错误

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41946919

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档