首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用Kubernetes在客户端模式下运行spark的两个独立映像,使用Apache-Spark 3.2.0的Python?

使用Kubernetes在客户端模式下运行spark的两个独立映像,使用Apache-Spark 3.2.0的Python?
EN

Stack Overflow用户
提问于 2021-11-15 20:41:56
回答 1查看 40关注 0票数 1

我使用以下脚本部署了Apache Spark 3.2.0,该脚本从Python的分发文件夹中运行:

./bin/docker-image-tool.sh -r <repo> -t my-tag -p ./kubernetes/dockerfiles/spark/bindings/python/Dockerfile build

我可以使用Spark-Submit在K8s下创建一个容器。我的目标是运行为客户端模式与本地模式配置的spark-submit,并期望为executors创建额外的容器。

我创建的镜像是否允许这样做,或者我是否需要使用docker-image工具创建第二个镜像(没有-p选项)并在不同的容器中进行配置?

EN

回答 1

Stack Overflow用户

发布于 2021-11-19 17:55:03

事实证明,如果您运行的是PySpark,那么只需要一个镜像。使用客户端模式,代码会为您生成executors和workers,一旦您创建spark-submit命令,它们就会运行。Spark版本2.4的重大改进!

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69980622

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档