首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >通过operatorhub部署的spark-gcp上的Webhooks

通过operatorhub部署的spark-gcp上的Webhooks
EN

Stack Overflow用户
提问于 2020-11-20 14:01:06
回答 1查看 179关注 0票数 0

我在k8s上部署了gcp-spark操作符。它工作得非常好。能够毫无问题地运行scala和python作业。

但是,我无法在我的pod上创建卷挂载。无法使用本地文件系统。看起来spark-operator应该启用webhooks才能工作。使用here

有一个带有webhooks yaml here的spark-operator,但名称与通过operator hub进行的部署不同。我尽我所知更新了名称,并尝试应用部署。但是遇到了下面的问题。

代码语言:javascript
复制
kubectl apply -f spark-operator-with-webhook.yaml
Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply
deployment.apps/spark-operator configured
service/spark-webhook unchanged
The Job "spark-operator-init" is invalid: spec.template: Invalid value: core.PodTemplateSpec{ObjectMeta:v1.ObjectMeta{Name:"", GenerateName:"", Namespace:"", SelfLink:"", UID:"", ResourceVers......int(nil)}}: field is immutable

有没有在spark-operator上启用webhooks的简单方法?我希望能够在sparkapplication上挂载本地文件系统。请协助。

EN

回答 1

Stack Overflow用户

发布于 2020-11-25 05:45:51

我清除了init对象并重新部署。清单已成功应用。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64924559

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档