首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用代码扩展spark worker节点

使用代码扩展spark worker节点
EN

Stack Overflow用户
提问于 2020-07-16 15:30:12
回答 1查看 315关注 0票数 0

在开始处理之前,我希望扩展spark集群,使所有工作节点都启动并运行。这个问题是因为工作节点的自动伸缩不会在加载时立即发生,并且会导致工作节点崩溃。这个集群有32个节点,但只有4个节点超载并崩溃,所以我要做的是在python笔记本的开头编写几行代码,这将启动其余的节点,并让24个节点启动并运行,然后进行实际的数据处理。这可以使用代码实现吗?请给我建议。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-07-23 16:28:35

通常,自动缩放适用于交互式工作负载。我很少看到它在工作中带来好处,尽管市场营销很好地将其作为一种节省成本的功能进行了销售。

您可以使用Databricks作业创建自动群集。在新的自动群集上运行作业并在作业完成时终止群集。

如果你知道什么时候向上伸缩比自动伸缩更好,那么你可以使用这个resize接口:https://docs.databricks.com/dev-tools/api/latest/clusters.html#resize

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62929656

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档