必须修改Locust工作进程配置,当前工作进程为130个节点。我将部署导出为yaml文件,对该文件进行了编辑,并在locust worker中应用了修改。
工作进程已重新启动,并使用新配置重新初始化。都是使用我之前修改过的新环境变量运行的。
问题是,在locust仪表板中,节点的数量增加了一倍,分别重新启动了工作进程,当它们启动时,locust UI已将其添加为新节点,但没有删除不活动的节点。
这是目前的情况:
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods -o wide|wc -l
134
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods|grep Running|wc -l
133
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # 仪表板:
STATUS
HATCHING
85 users
Edit
**SLAVES
260**
RPS
0
FAILURES
0%
 Reset Stats
StatisticsFailuresExceptions
Type Name # requests # fails Median Average Min Max Content Size # reqs/sec
Total 0 0 0 0 0 0 0 0
Download request statistics CSV
Download response time distribution CSV快速重新初始化蝗虫主节点以获得实际节点数是什么?
谢谢
发布于 2016-12-02 23:25:22
现在,重置主节点的仪表板的唯一方法是重新安排主节点,并从一个干净的pod开始。您可以使用kubectl scale deployment/locust-master --replicas=0执行此操作,并使用kubectl scale deployment/locust-master --replicas=1将其向上扩展。但这将丢弃您已经在主服务器上收集的任何结果。
这更像是一个蝗虫问题,而不是k8s可以解决的问题。
发布于 2017-10-11 20:08:35
问题似乎是节点一旦尝试注册,如果没有启动,就不会重试。任何一位主人都不会不断地交流来看我
删除master pod并等待它的备份。现在,它将拥有零个奴隶。
然后删除节点/工作pods,以便它们重新注册。要删除带有标签的pod,可以使用以下命令
# Delete pods and services with label name=myLabel.
kubectl delete pods,services -l name=myLabel发布于 2021-07-24 01:40:20
我认为类似的问题也在here中列出。当您启动一个worker并将其关闭时,它仍然会在UI中作为缺失列出。我想这是因为蝗虫没有办法让工人告诉主人他们还没有准备好工作。如前所述,删除主节点然后重新启动它将重置UI。
在此期间,我认为开发人员知道这个问题。
https://stackoverflow.com/questions/40885151
复制相似问题