首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用Python的星星之火K8s资源暂存服务器

使用Python的星星之火K8s资源暂存服务器
EN

Stack Overflow用户
提问于 2018-02-10 02:25:20
回答 1查看 801关注 0票数 2

我一直在跟踪在库伯奈特斯博士上运行星火上的火花K8s v2.2.0-kubernetes-0.5.0,Kubernetes v1.9.0和Minikubev0.25.0。

我能够使用以下命令成功地运行Python作业:

代码语言:javascript
复制
bin/spark-submit \
  --deploy-mode cluster \
  --master k8s://https://10.128.0.4:8443 \
  --kubernetes-namespace default \
  --conf spark.executor.instances=1 \
  --conf spark.app.name=spark-pi \
  --conf spark.kubernetes.driver.docker.image=kubespark/spark-driver-py:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.executor.docker.image=kubespark/spark-executor-py:v2.2.0-kubernetes-0.5.0 \
  --jars local:///opt/spark/examples/jars/spark-examples_2.11-2.2.0-k8s-0.5.0.jar \
  local:///opt/spark/examples/src/main/python/pi.py 10

我能够使用以下命令成功地运行具有本地依赖项的Java作业(在设置了资源暂存服务器之后):

代码语言:javascript
复制
bin/spark-submit \
  --deploy-mode cluster \
  --class org.apache.spark.examples.SparkPi \
  --master k8s://https://10.128.0.4:8443 \
  --kubernetes-namespace default \
  --conf spark.executor.instances=1 \
  --conf spark.app.name=spark-pi \
  --conf spark.kubernetes.driver.docker.image=kubespark/spark-driver:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.executor.docker.image=kubespark/spark-executor:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.initcontainer.docker.image=kubespark/spark-init:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.resourceStagingServer.uri=http://10.128.0.4:31000 \
  ./examples/jars/spark-examples_2.11-2.2.0-k8s-0.5.0.jar

可以使用本地依赖项运行Python作业吗?我试过这个命令,但失败了:

代码语言:javascript
复制
bin/spark-submit \
  --deploy-mode cluster \
  --master k8s://https://10.128.0.4:8443 \
  --kubernetes-namespace default \
  --conf spark.executor.instances=1 \
  --conf spark.app.name=spark-pi \
  --conf spark.kubernetes.driver.docker.image=kubespark/spark-driver-py:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.executor.docker.image=kubespark/spark-executor-py:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.initcontainer.docker.image=kubespark/spark-init:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.resourceStagingServer.uri=http://10.128.0.4:31000 \
  ./examples/src/main/python/pi.py 10

我在司机的日志中得到了这个错误:

代码语言:javascript
复制
Error: Could not find or load main class .opt.spark.jars.RoaringBitmap-0.5.11.jar

事件日志中的以下错误:

代码语言:javascript
复制
MountVolume.SetUp failed for volume "spark-init-properties" : configmaps "spark-pi-1518224354203-init-config" not found
...
MountVolume.SetUp failed for volume "spark-init-secret" : secrets "spark-pi-1518224354203-init-secret" not found
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-02-14 22:18:04

修复方法是通过--jars将示例jar作为依赖项提供

代码语言:javascript
复制
bin/spark-submit \
  --deploy-mode cluster \
  --master k8s://https://10.128.0.4:8443 \
  --kubernetes-namespace default \
  --conf spark.executor.instances=1 \
  --conf spark.app.name=spark-pi \
  --conf spark.kubernetes.driver.docker.image=kubespark/spark-driver-py:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.executor.docker.image=kubespark/spark-executor-py:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.initcontainer.docker.image=kubespark/spark-init:v2.2.0-kubernetes-0.5.0 \
  --conf spark.kubernetes.resourceStagingServer.uri=http://10.128.0.4:31000 \
  --jars local:///opt/spark/examples/jars/spark-examples_2.11-2.2.0-k8s-0.5.0.jar \
  ./examples/src/main/python/pi.py 10

我不知道为什么要这样做(RoaringBitmap-0.5.11.jar应该存在于/opt/spark/jars中,在任何情况下都应该添加到类路径中),但这现在解决了我的问题。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48716630

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档