我正在使用正式的Helm图进行气流。除了工作节点以外,每个Pod都能正常工作。
即使在工作节点中,也有2个容器(git-sync和worker-log-groomer)工作正常。
错误发生在CrashLoopBackOff的第三个容器(worker)中。退出代码状态为137 OOMkilled。
在我的openshift中,内存使用量显示为70%。
虽然这个错误是由于内存泄漏而产生的。这件事不是碰巧发生的。请帮帮忙,我已经穿这件衣服一个星期了。
Kubectl描述吊舱气流-0 ->
worker:
Container ID: <>
Image: <>
Image ID: <>
Port: <>
Host Port: <>
Args:
bash
-c
exec \
airflow celery worker
State: Running
Started: <>
Last State: Terminated
Reason: OOMKilled
Exit Code: 137
Started: <>
Finished: <>
Ready: True
Restart Count: 3
Limits:
ephemeral-storage: 30G
memory: 1Gi
Requests:
cpu: 50m
ephemeral-storage: 100M
memory: 409Mi
Environment:
DUMB_INIT_SETSID: 0
AIRFLOW__CORE__FERNET_KEY: <> Optional: false
Mounts:
<>
git-sync:
Container ID: <>
Image: <>
Image ID: <>
Port: <none>
Host Port: <none>
State: Running
Started: <>
Ready: True
Restart Count: 0
Limits:
ephemeral-storage: 30G
memory: 1Gi
Requests:
cpu: 50m
ephemeral-storage: 100M
memory: 409Mi
Environment:
GIT_SYNC_REV: HEAD
Mounts:
<>
worker-log-groomer:
Container ID: <>
Image: <>
Image ID: <>
Port: <none>
Host Port: <none>
Args:
bash
/clean-logs
State: Running
Started: <>
Ready: True
Restart Count: 0
Limits:
ephemeral-storage: 30G
memory: 1Gi
Requests:
cpu: 50m
ephemeral-storage: 100M
memory: 409Mi
Environment:
AIRFLOW__LOG_RETENTION_DAYS: 5
Mounts:
<>我很肯定你知道答案。阅读你所有关于气流的文章。(谢谢:) https://stackoverflow.com/users/1376561/marc-lamberti
发布于 2022-03-03 13:01:14
出现这些问题的原因是将限制放置在"resources“中,并将其置于任一个豆荚中的values.yaml图表中。
在默认情况下,是-
resources: {}但是这会导致一个问题,因为豆荚可以根据需要访问无限内存。
把它改成-
resources:
limits:
cpu: 200m
memory: 2Gi
requests:
cpu: 100m
memory: 512Mi它清楚地说明了它可以访问和请求的数量。这解决了我的问题。
https://stackoverflow.com/questions/71298983
复制相似问题