我使用helm图表安装了Prometheus,因此我列出了4个部署文件:
所有的部署文件都在相应地运行。我错误地使用以下命令重新启动了一个部署文件:
kubectl rollout restart deployment prometheus-alertmanager
现在一个新的pod正在被创建并崩溃,如果我删除部署文件,那么以前的pod也会被删除。那么我能为那个crashLoopBackOff吊舱做些什么呢?
发布于 2020-10-13 09:27:48
您可以使用删除命令简单地删除该pod,也可以尝试删除处于crashLoopBackOff状态的所有pod:
kubectl delete pod `kubectl get pods | awk '$3 == "CrashLoopBackOff" {print $1}'`确保将相应的部署设置为1个副本(或任何其他选定的编号)。如果您删除了该部署的一个pod,它将创建一个新的,同时保持所需的副本计数。
发布于 2020-10-13 12:55:10
这两个荚(一个运行和另一个崩溃回退)属于不同的部署,因为它们的后缀是不同的标记,即:pod1-abc-123和pod2-abc-456属于同一个部署模板,而pod1-abc-123和pod2-def-566属于不同的部署。
部署将创建副本集,确保删除相应的旧副本酶kubectl get rs | grep 99dd并删除该副本,类似于prometheus服务器。
https://stackoverflow.com/questions/64318412
复制相似问题