我在k8s上部署了gcp-spark操作符。它工作得非常好。能够毫无问题地运行scala和python作业。
但是,我无法在我的pod上创建卷挂载。无法使用本地文件系统。看起来spark-operator应该启用webhooks才能工作。使用here。
有一个带有webhooks yaml here的spark-operator,但名称与通过operator hub进行的部署不同。我尽我所知更新了名称,并尝试应用部署。但是遇到了下面的问题。
kubectl apply -f spark-operator-with-webhook.yaml
Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply
deployment.apps/spark-operator configured
service/spark-webhook unchanged
The Job "spark-operator-init" is invalid: spec.template: Invalid value: core.PodTemplateSpec{ObjectMeta:v1.ObjectMeta{Name:"", GenerateName:"", Namespace:"", SelfLink:"", UID:"", ResourceVers......int(nil)}}: field is immutable有没有在spark-operator上启用webhooks的简单方法?我希望能够在sparkapplication上挂载本地文件系统。请协助。
发布于 2020-11-25 05:45:51
我清除了init对象并重新部署。清单已成功应用。
https://stackoverflow.com/questions/64924559
复制相似问题