首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏腾讯云网络专家服务

    iperf3CVM带宽达不到预期

    【问题描述】客户反馈两个地域的cvm互通,内网带宽上不去 image.png 【原因分析】 1、看客户机型机型代号:IT5.16XLARGE256实例配置是CPU&MEM:64核+256G的网卡队列数 https://fasterdata.es.net/performance-testing/network-troubleshooting-tools/iperf/ image.png 3、多线程建议使用 performance-testing/network-troubleshooting-tools/throughput-tool-comparision/ image.png 【解决方案】建议使用多线程来进行传输,提升并发速度,带宽参考官方文档

    4.6K61发布于 2021-02-07
  • 来自专栏云服务使用个人总结

    一款强大的带宽工具-iperf3

    本文主要用到iperf3命令,查看网络情况使用sar命令。iperf3需要用到2台机器,1台server,1台client。iperf3Iperf3是一个广泛使用的网络性能测量和调整工具。 txkB/s :发送带宽tcpserver端:[root@test ~]# iperf3 -s -i 1---------------------------------------------- udp需要指定带宽,因为UDP默认为1 Mbit/sec,TCP无限制。 ,使用上面的方法可能不到上限,可以使用for循环开多个端口。 server端时带宽较高压不到上限,也可以在server端多开一些监听端口,用多台client同时server。

    1.4K10编辑于 2025-01-18
  • 来自专栏大数据生态

    Elasticsearch之Esrally标准

    工具部署:Elasticsearch工具esrally部署指南 - 云+社区 本文另有延伸:大数据生态关于压力测试的内容 - 云+社区 背景 在大数据时代的今天,业务量越来越大,每天动辄都会产生上百 track: 即赛道的意思,这里指压用到的样本数据和策略,使用 esrally list tracks 列出。 ,可以通过 esrally list pipeline 查看,其中有一个 benchmark-only 的流程,就是将 es 的管理交给用户来操作,rally 只用来做,如果你想针对已有的 es 进行 ,则使用该模式; track-params:对默认的参数进行覆盖; user-tag:本次的 tag 标记; client-options:指定一些客户端连接选项,比如用户名和密码。 标准 在的过程中,需要了解到各个指标的含义。但是网络上没有完整的文档,所以这里做一个详细的总结。

    4.5K2214编辑于 2022-05-16
  • 来自专栏建帅技术分享

    utest和grafana效果(腾讯优

    一、压力测试平台-----优官网 二、10000vum免费试用 1.单接口 创建单接口任务: 执行任务及查看报告: 导出报告: pdf格式报告: 2.全链路 创建全链路计划 : 执行全链路计划:每次会消耗vum 执行进度: 测报告: 定时任务: 全链路pdf测报告: 三、资源监控:grafana **免费的测试报告中,缺少了cpu和内存等资源的占用情况。 所以我这里想到的是grafana,利用grafana动态实时的资源可视化,结合优,应该效果非常棒.** 四、总结 问题: 本来想结合业务登录接口去坐个,结果发现,优不支持application

    2.5K20编辑于 2022-08-24
  • 来自专栏devops_k8s

    Redis

    网络带宽和延迟通常是最大短板。建议在基准测试之前使用 ping 来检查服务端到客户端的延迟。根据带宽,可以计算出最大吞吐量。 比如将 4 KB 的字符串塞入 Redis,吞吐量是 100000 q/s,那么实际需要 3.2 Gbits/s 的带宽,所以需要 10 GBits/s 网络连接, 1 Gbits/s 是不够的。 在很多线上服务中,Redis 吞吐会先被网络带宽限制住,而不是 CPU。 在小对象存取时候,内存速度和带宽看上去不是很重要,但是对大对象(> 10 KB), 它就变得重要起来。不过通常情况下面,倒不至于为了优化 Redis 而购买更高性能的内存模块。

    2K20编辑于 2022-05-09
  • 来自专栏悦专栏

    MongoDB

    在 MongoDB 上线之前,我们可能想知道它的极限是怎样的,这时,我们可以借助工具对 MongoDB 进行,这一节内容就来聊聊通过 YCSB 对 MongoDB 进行。 readproportion=1 updateproportion=0 scanproportion=0 insertproportion=0 requestdistribution=zipfian 关于 YCSB 的文件的每个参数的解释如下 5 运行 加载数据: ./bin/ycsb load mongodb -P workloads/workloada 进行: . 99thPercentileLatency(us), 1317.0 [UPDATE], Return=OK, 24798 通过 “[OVERALL], Throughput(ops/sec)”,可看出我们的实例 当然,过程也需要关注 CPU、内存等,看是否已经到极限了。

    2.3K10编辑于 2022-04-25
  • 来自专栏CSIG质量部压测团队

    【项目实战-10】带宽打满,堆机器才是王道

    【问题表现】 项目的登录接口在过程中从1000并发提高3000并发,QPS没有任何变化。 因为经常会被业务方挑战是机的问题,所以就想先加一个集群来,以确认是机的问题,还是链路的问题,亦或是业务方的问题。 结果:两个集群,各1500并发,QPS值总共6k 19.png 20.png 2. 从上面的现象可以分析出,链路具备6WQPS的并发能力,一定是机某方面的资源受到限制。 21.png 3.受到该同学的启发,我去看了下压机的机的外网出带宽,果然都被打满(上限是50M) 22.png 【总结】 在的过程中,我们不仅要关注服务端的负载能力,也要需要关注机的负载能力 ,尤其是是CPU,内存和带宽三个指标。

    1.3K20发布于 2021-02-23
  • 来自专栏Java项目实战

    场景设计和方案制定

    本章内容根据《分布式服务架构》整理 1.业务模型分析 2.执行 3.工具 4.小结 业务模型分析 对业务模型进行分析,选择日常请求量大且路径覆盖范围广的典型交易,建立测试业务模型,确定各接口请求量的对比 加压方式 1.瞬间加压:通过测试工具模拟大量并发请求 2.逐渐加压:一定周期内为抛物线的趋势 3.梯度加压:逐渐增加用户并发量 4.确定延时方式 执行 观察系统的资源占用情况 /系统层面:CPU, 内存,磁盘I/O,网络带宽,线程数,打开的文件句柄,线程切换,和打开的Socket数量 /接口的吞吐量,响应时间,超时情况等 /数据库的慢 SQL,SQL行读,锁等待,死锁,缓冲区命中,索引命中等 /消息队列的吞吐变化,响应时间,超时情况 /过程中记录记录 /分析是否满足既定压目标 /指出系统存在的瓶颈点 工具:ab,jmeter,mysqlslap.sysbench,dd,LoadRunner ,Hprof 我记得我整理了ab,jmeter的文章,但ab在哪忘记了,贴一下jmeter的链接Jmeter系统入门教程(安装、组件使用、Demo展示、连接数据库、测报告) 现在根据书上hprof 测试环境

    5.3K21发布于 2020-02-19
  • 来自专栏devops_k8s

    Redis

    网络带宽和延迟通常是最大短板。建议在基准测试之前使用 ping 来检查服务端到客户端的延迟。根据带宽,可以计算出最大吞吐量。 比如将 4 KB 的字符串塞入 Redis,吞吐量是 100000 q/s,那么实际需要 3.2 Gbits/s 的带宽,所以需要 10 GBits/s 网络连接, 1 Gbits/s 是不够的。 在很多线上服务中,Redis 吞吐会先被网络带宽限制住,而不是 CPU。 为了达到高吞吐量突破 TCP/IP 限制,最后采用 10 Gbits/s 的网卡, 或者多个 1 Gbits/s 网卡。 在小对象存取时候,内存速度和带宽看上去不是很重要,但是对大对象(> 10 KB), 它就变得重要起来。不过通常情况下面,倒不至于为了优化 Redis 而购买更高性能的内存模块。

    2.3K70发布于 2021-06-21
  • 来自专栏灰子学技术

    envoy

    信息:​ envoy版本: 1.23.2-dev istio版本:1.15.2 envoy只打开了access log,没有配置任何VS和DR,去掉了jeager和stat-filter插件, pod层面做的,资源为 1c2g的sidecar配比,业务容器是1c2g,响应比较快,request的大小是多少,response就返回多少。 网络是k8s的内网,延迟很低,不超过1ms。 准备: 构建 test1---->test2的链路,在test1的pod里面进行,访问的接口是test1的,这里的接口内部实现了调用test2的逻辑,也就是说:流量是下面这个样子 --流量--》 , 10 KiB) copied, 9.7164e-05 s, 105 MB/s 参考: https://www.cnblogs.com/machangwei-8/p/10353628.html 2.工具使用的是 hey,命令的例子如下: # .

    91810编辑于 2024-04-17
  • 来自专栏JAVA乐园

    怎么做服务关注什么?

    背景 在业务新上线,或者业务做活动,成为必不可少的一步。 但是很多开发对如何做好服务并没有特别系统的了解,这篇文章的目的是为了解释清楚单机服务的目的、做法、误区,帮助大家更好地达成的目的 的目的是什么? 我们并不总是对自己的服务这么自信,能够帮我们了解清楚在高压情况下的表现,发现隐藏的问题。 后续的内容我们将按照三个目标逐一讲述,中可能存在的误区 性能瓶颈分析 在分析服务性能瓶颈的时候,一般使用perf工具来生成服务在测时的火焰图 y 轴表示调用栈,每一层都是一个函数。 流量预估:通过历史数据(或者结合业务和时间)预估业务流量会有多大的系统调用量 容量评估:根据预估结果,计算服务需要分配多少机器 场景:针对重点业务场景,进行全局性的,根据结果再次调整。

    2.1K30编辑于 2022-03-08
  • 来自专栏LukaChen Blog

    wrk

    一、背景 通过发现系统瓶颈,评估系统 QPS、吞吐量上限 二、工具选择 ab、wrk、Jmeter ab [root@VM-190-129-centos ~]# ab --help Usage: ab 以上两个特性 wrk 可以支持,而 Jmeter 需安装 GUI,没有 CLI 方便没有详细去了解,选择用 wrk 进行。 c1 -d1s -s post.lua --latency http://127.0.0.1:8080/index.php 使用 lua 脚本,实现 POST 请求动态参数组装 post.lua --命令

    1K20编辑于 2023-10-22
  • 来自专栏Windows技术交流

    用微软的ctsTraffic云服务器内网带宽很方便

    用微软的ctsTraffic云服务器内网带宽,算速率时,注意有个*8/1024/1024/1000的算法(我自己多次试验,发现并非*8/1024/1024/1024,而是*8/1024/1024/1000 consoleverbosity:1 -connections:8 -iterations:10 算速率的时候,把客户端数据掐头去尾算均值 如上图,掐头去尾均值*8/1024/1024/1000 我测试的机型内网带宽上限是

    7.4K20编辑于 2026-03-24
  • 来自专栏精益码农

    JMeter笔记

    【前文从理论角度对比了lock锁(Monitor)与读写锁(ReadWriteLockSlim)的差异和使用场景,尝试用Jmeter对lock、ReadWriteLockSlim】 启动Jmeter 请求次数= 线程数 * 循环次数 Duration:整个的时长 添加采样器 此次我们主要测试 [多读少写]的场景,故我们添加http请求采样器。 Listener>[****], 这里添加几个有效常见的侦听器:View Results Tree、Summary Report、Aggregate Report、Aggregate Graph 过程 在一个线程组内的线程是依次执行的,我们建立两个线程组分别测试 (读写比1:1) 测时长:4分钟 每秒尝试启动300线程不断循环 http://localhost:5000/rwlock? 这个中没有争用,_dict.TryGetValue 是o(1)的复杂度,速度很块,多个线程在某时刻命中这个方法的概率极小,整个api代码块耗时几纳秒,结果12ms,绝大部分都是在网络上, 貌似要写代码测试了

    2.2K30发布于 2021-10-14
  • 来自专栏云原生技术呱呱

    性能总结

    ;二 UTgolang-sdk、java-sdk都提供了很好的工具三 组件1 工具http: abgrpc: ghz go get github.com/bojand/ghz2 环境对象 =x核xG,外部依赖带宽,网卡...3 设计casescases并发数DurationReqRPS平均耗时P99吞吐实际并发CPU(4u)xxx100605816809694.5910.0338.069694.5997.237506760% 4 记录数据5 分析结论通过go-pprof,jstat等工具分析测时,接口质量,优化代码go tool pprof http://xxxgo tool pprof -http=:8080 pprof.xxxgo ,系统可观测性,监控打点)1 链路确定,指定输入+输出2 系统环境准备链路上组件资源+依赖3 设计用例复杂度+压力大小(请求数、请求大小)4 记录数据5 分析结论比如关注就是系统的qps 、带宽用例组件1组件2组件3QPS入带宽xxx4C16G*24C8G*24C8G*22.5k/s160MB/s6 总结性能基线7 根据性能基线估算成本五 持续化测流程工具化,测报告自动化,用例集成到

    1.6K70编辑于 2022-07-14
  • 来自专栏johnnyxsu技术交流分享

    网站工具

    在日常售后工作中,常常需要对一些网站进行简单的,以判断网站的可用性。 经常遇到用户来反馈CDN下载异常,其实有很大的一种可能就是用户在更新之前没有进行预热,所有用户在通过CDN访问时,由于CDN没有预热,就会从源站拉取资源,但是源站的带宽以及性能无法支撑多个CDN节点拉取源站资源时 此时通过源站就能够发现源站性能异常。 本文提供两种简单的网站脚本,能够快速的针对源站进行HTTP或HTTPS请求的。 simple_stresstesting.sh运行指南 image.png 运行该脚本后面跟多个变量,第一个变量需要输入请求的次数,后面的变量需要填写网站的url以及proxy等代理请求。 image.png 结束后会展示返回的状态码等统计信息。

    7K970发布于 2019-07-08
  • 来自专栏windealli

    常用工具

    后台开发经常需要对服务进行压力测试,下面介绍常用的工具。 webbench webbench 是常用的网站压力测试工具,webbench用C语言编写,代码仅有区区几百行。 最后两行是结构, 有测试的请求速度,成功的请求量、失败的请求量。 实现原理 通过调用fork()创建子进程,模拟多个客户端。

    4.4K50发布于 2018-09-27
  • 来自专栏院长运维开发

    ab工具

    Apache Benchmark(简称ab) 是Apache安装包中自带的压力测试工具 ,简单易用

    2.1K20发布于 2021-02-19
  • 来自专栏老张的求知思考世界

    聊聊传统和全链路的区别

    传统和全链路的区别 相比于传统的方式,全链路在性能测试领域,有其独到的特殊性: 类型 传统 全链路 工具 Jmeter、Locust、Loadrunner 集群、流量引擎 要完成一次完整的,需要经历下述多个环节才可以完成: 业务研发部门提出需求,团队和业务方沟通后确认是否执行; 业务部门提供范围、链路接口、数据并且准备相关的铺底数据和参数化数据; 团队和运维 DBA沟通,准备相关的环境,开通防火墙及临时访问权限; 团队调试脚本,有问题需要业务研发协助定位解决; 开展,通过nmon、JDK自带工具获得数据,然后导出进行图表绘制,进行性能问题初步分析 全链路落地过程中的挑战 虽然全链路解决了传统过程中的种种痛点,可以为线上性能评估提供更多详实的参考建议。 一次偶然的机会,我了解到了开源全链路平台Takin。 开源全链路产品:Takin 最开始了解到Takin,还是因为全链路相关的事情。

    1.9K10发布于 2021-09-24
  • 来自专栏蛋未明的专栏

    PHP优化

    概述 一个产品的编码完成,并不能代表产品能够给用户体验,其中还必须包含测试、分析等,而往往我们的产品上线前却忽略掉分析。既然分析很重要那么我们应该如何进行呢? 分析 前需要注意以下几点: 1、前必须要保证去除登录逻辑,并能够进入正常的数据请求; 2、将接口分析以便同一类接口,可以避免修改逻辑一起; 3、数据表格设计,尽量能够设计分析出系统的极限处理能力 这部分需要注意的一点是必须要等被服务器的负载降低时才能进行下一次,避免未达到最佳性能。 数据分析 1、数据分析 如果前期压数据都已经完成后,再将表格数据做成一个折线图(绘制折线图的方法,可以使用execl)。 优化后再进行 完成后,对代码进行部分的整个优化(整改前请注意备份),优化完成后再跑一遍代码逻辑,避免整改后服务异常,从而未达到逻辑的目的。

    2K30发布于 2018-06-07
领券