首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Kubernetes + locust (负载测试)

Kubernetes + locust (负载测试)
EN

Stack Overflow用户
提问于 2016-11-30 17:53:33
回答 3查看 1.5K关注 0票数 2

必须修改Locust工作进程配置,当前工作进程为130个节点。我将部署导出为yaml文件,对该文件进行了编辑,并在locust worker中应用了修改。

工作进程已重新启动,并使用新配置重新初始化。都是使用我之前修改过的新环境变量运行的。

问题是,在locust仪表板中,节点的数量增加了一倍,分别重新启动了工作进程,当它们启动时,locust UI已将其添加为新节点,但没有删除不活动的节点。

这是目前的情况:

代码语言:javascript
复制
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods -o wide|wc -l
134
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods|grep Running|wc -l
133
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # 

仪表板:

代码语言:javascript
复制
STATUS
HATCHING
85 users
Edit
**SLAVES
260**
RPS
0
FAILURES
0%
 Reset Stats
StatisticsFailuresExceptions
Type    Name    # requests  # fails Median  Average Min Max Content Size    # reqs/sec
Total   0   0   0   0   0   0   0   0
Download request statistics CSV
Download response time distribution CSV

快速重新初始化蝗虫主节点以获得实际节点数是什么?

谢谢

EN

回答 3

Stack Overflow用户

发布于 2016-12-02 23:25:22

现在,重置主节点的仪表板的唯一方法是重新安排主节点,并从一个干净的pod开始。您可以使用kubectl scale deployment/locust-master --replicas=0执行此操作,并使用kubectl scale deployment/locust-master --replicas=1将其向上扩展。但这将丢弃您已经在主服务器上收集的任何结果。

这更像是一个蝗虫问题,而不是k8s可以解决的问题。

票数 0
EN

Stack Overflow用户

发布于 2017-10-11 20:08:35

问题似乎是节点一旦尝试注册,如果没有启动,就不会重试。任何一位主人都不会不断地交流来看我

删除master pod并等待它的备份。现在,它将拥有零个奴隶。

然后删除节点/工作pods,以便它们重新注册。要删除带有标签的pod,可以使用以下命令

代码语言:javascript
复制
  # Delete pods and services with label name=myLabel.
  kubectl delete pods,services -l name=myLabel
票数 0
EN

Stack Overflow用户

发布于 2021-07-24 01:40:20

我认为类似的问题也在here中列出。当您启动一个worker并将其关闭时,它仍然会在UI中作为缺失列出。我想这是因为蝗虫没有办法让工人告诉主人他们还没有准备好工作。如前所述,删除主节点然后重新启动它将重置UI。

在此期间,我认为开发人员知道这个问题。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40885151

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档