首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏智能大石头

    批量添删改操作(提升吞吐

    NewLife.XCode是一个有15年历史的开源数据中间件,支持netcore/net45/net40,由新生命团队(2002~2020)开发完成并维护至今,以下简称XCode。

    87220编辑于 2022-05-10
  • 来自专栏性能与架构

    Kafka是如何实现高吞吐

    是分布式消息系统,需要处理海量的消息,Kafka的设计是把所有的消息都写入速度低容量大的硬盘,以此来换取更强的存储能力,但实际上,使用硬盘并没有带来过多的性能损失 kafka主要使用了以下几个方式实现了超高的吞吐

    2.2K60发布于 2018-04-03
  • 来自专栏三太子敖丙

    带宽、延时、吞吐、PPS 这些都是啥?

    通常是以 4 个指标来衡量网络的性能,分别是带宽、延时、吞吐、PPS(Packet Per Second),它们表示的意义如下: 带宽,表示链路的最大传输速率,单位是 b/s (比特 / 秒),带宽越大 吞吐,表示单位时间内成功传输的数据量,单位是 b/s(比特 / 秒)或者 B/s(字节 / 秒),吞吐受带宽限制,带宽越大,吞吐的上限才可能越高。 ---- 网络吞吐和 PPS 如何查看? 可以使用 sar 命令当前网络的吞吐和 PPS,用法是给 sar 增加 -n 参数就可以查看网络的统计信息,比如 sar -n DEV,显示网口的统计数据; sar -n EDEV,显示关于网络错误的统计数据 rxkB/s 和 txkB/s 分别是接收和发送的吞吐,单位是 KB/ 秒。 rxcmp/s 和 txcmp/s 分别是接收和发送的压缩数据包数,单位是包 / 秒。

    3.4K20发布于 2020-12-18
  • 来自专栏GPUS开发者

    DAY29:阅读最大化存储器的吞吐

    本文备注/经验分享: 这章节主要来说如何优化存储器的吞吐,但说的很简略。

    62230发布于 2018-06-25
  • 来自专栏贾志刚-OpenCV学堂

    OpenVINO2023异步回调流水线提升推理吞吐

    同时支持创建多个Requst然后基于多个Requst实现流水线方式的推理从而提升CPU推理的吞吐

    1.1K31编辑于 2023-11-21
  • 来自专栏Golang语言社区

    百万 Go TCP 连接的思考: 正常连接下的吞吐和延迟

    第一篇 百万 Go TCP 连接的思考: epoll方式减少资源占用 第二篇 百万 Go TCP 连接的思考2: 百万连接的吞吐和延迟 第三篇 百万 Go TCP 连接的思考: 正常连接下的吞吐和延迟 测试分别采用并发连接数为 5000、2000、1000、500、200、100,测试对应的吞吐和延迟。 服务器可以达到20万的吞吐。 ,但是也不是线性关系,随着连接数的增加,所带来的吞吐收益也慢慢的变弱,也就是有一个拐点,连接数的增加带来的吞吐的增加将变得很小。 这给了我们一个启示,在连接数比较小的情况下,正统的goroutine-per-connection可以取得很好的延迟,并且为了提高吞吐,我们可以适当增加连接数。

    89320发布于 2019-05-08
  • 来自专栏Golang语言社区

    百万 Go TCP 连接的思考: 正常连接下的吞吐和延迟

    第一篇 百万 Go TCP 连接的思考: epoll方式减少资源占用 第二篇 百万 Go TCP 连接的思考2: 百万连接的吞吐和延迟 第三篇 百万 Go TCP 连接的思考: 正常连接下的吞吐和延迟 测试分别采用并发连接数为 5000、2000、1000、500、200、100,测试对应的吞吐和延迟。 服务器可以达到20万的吞吐。 ,但是也不是线性关系,随着连接数的增加,所带来的吞吐收益也慢慢的变弱,也就是有一个拐点,连接数的增加带来的吞吐的增加将变得很小。 这给了我们一个启示,在连接数比较小的情况下,正统的goroutine-per-connection可以取得很好的延迟,并且为了提高吞吐,我们可以适当增加连接数。

    1.2K30发布于 2019-05-08
  • 来自专栏Golang语言社区

    百万 Go TCP 连接的思考2: 百万连接的吞吐和延迟

    三、 epoll服务器加上吞吐指标 上一篇已经介绍了epoll方式的实现,为了测试吞吐,我们需要通过传递特殊的数据来计算。 数据分析 这里我们对50个容器的日志进行统计, 汇总吞吐进行相加,可以得到吞吐(TPS)为 42495, 延迟(latency)为 23秒。 数据分析 这里我们对50个容器的日志进行统计, 汇总吞吐进行相加,可以得到吞吐(TPS)为 197814, 延迟(latency)为 0.9秒。 这里我们对50个容器的日志进行统计, 汇总吞吐进行相加,可以得到吞吐(TPS)为 444415, 延迟(latency)为 1.5秒。 这里我们对50个容器的日志进行统计, 汇总吞吐进行相加,可以得到吞吐(TPS)为 190022, 延迟(latency)为 0.3秒。

    1.1K40发布于 2019-05-08
  • 来自专栏机器之心

    FPGA加速BCNN,模型20倍剪枝、边缘设备超5000帧秒推理吞吐

    机器之心报道 机器之心编辑部 来自康涅狄格大学等机构的研究者提出了一种基于结构剪枝的 BCNN 加速器,它能以较小的准确损失获得 20 倍的剪枝,并且在边缘设备上提供了超过 5000 帧 / 秒的推理吞吐量 本文中,来自康涅狄格大学、斯蒂文斯理工学院等机构的研究者提出了一种基于结构剪枝的 BCNN 加速器,它能够在边缘设备上提供超过 5000 帧 / 秒的推理吞吐量。 但准确损失可以忽略不计;  在硬件方面,研究者为二值复数神经网络提出了一种新颖的 2D 卷积运算加速器。 池化层和批归一化层应该在卷积层之后,从网络中去除了 bias 以减少计算开销而不会损失准确。对于 BCNN,批归一化是模型收敛的强制性操作。 可实现的最大吞吐量为 5882 帧 / 秒。

    71020编辑于 2023-03-29
  • 来自专栏互扯程序

    Kafka 高性能吞吐揭秘

    这次本文围绕Kafka优异的吞吐性能,逐个介绍一下其设计与实现当中所使用的各项“黑科技”。 脏页超过第一个指标会启动pdflush开始Flush Dirty PageCache。 4. 脏页超过第二个指标会阻塞所有的写操作来进行Flush。 5. 此外,如果多个Consumer恰巧都是消费时间序上很相近的数据,可以达到很高的PageCache命中,因而Kafka可以非常高效的支持高并发读操作,实践中基本可以达到单机网卡上限。

    97141发布于 2019-05-24
  • 来自专栏花落的技术专栏

    TPS、RT、吞吐量 详解

    一、QPS,每秒查询 QPS:Queries Per Second意思是“每秒查询”,是一台服务器每秒能够相应的查询次数,是对一个特定的查询服务器在规定时间内所处理流量多少的衡量标准。 互联网中,作为域名系统服务器的机器的性能经常用每秒查询来衡量。 二、TPS,每秒事务 TPS:是TransactionsPerSecond的缩写,也就是事务数/秒。它是软件测试结果的测量单位。 五、吞吐量 系统的吞吐量(承压能力)与request对CPU的消耗、外部接口、IO等等紧密关联。单个request 对CPU消耗越高,外部系统接口、IO速度越慢,系统吞吐能力越低,反之越高。 系统吞吐量几个重要参数:QPS(TPS)、并发数、响应时间。

    3.1K00编辑于 2021-12-16
  • 来自专栏运维开发王义杰

    性能测试:吞吐

    我们需要先明确一下"吞吐量"(Throughput)的定义。在 JMeter 中,吞吐量是指单位时间内服务器处理的请求数量。 具体来说,如果你的测试在10秒内完成了100个请求,那么吞吐量就是10 req/sec。 然而,我们在测试计划中配置的线程数(也就是"进程数")并不直接等于吞吐量。 影响服务器吞吐量的因素有以下几点: 服务器的处理能力:如果服务器无法快速处理请求,那么即使有很多线程同时发送请求,吞吐量也不会增加。 换句话说,如果服务器需要花费很长时间来处理每个请求,那么在单位时间内完成的请求数量就会降低,这会导致吞吐量低于线程数。 网络延迟:如果我们的测试机器和服务器之间的网络延迟较高,那么这也可能影响吞吐量。 例如,如果JMeter无法快速地启动线程,或者无法快速地处理服务器的响应,那么这都可能影响吞吐量。

    2.4K20编辑于 2023-08-16
  • 来自专栏虚拟化笔记

    ovs vxlan 时延和吞吐

    把网络比作一条水管,虹吸原理把水从一个池塘A抽到另一个池塘B,当然是水管越粗越好,水管粗细就是不同能力的网卡,一秒钟能从水管流出多少水就是吞吐,假如从水管入口滴一滴墨水,那墨水从入口到出口的时间就是单向时延 ,水管壁粗糙弯曲不直,水流就慢,时延就大,水在水管里流得越快单位时间从水管口流出来的水就越多,时延影响吞吐。 ovs实现vxlan性能存在瓶颈,单cpu的ksoftirq很容易就100%了,吞吐上不去。

    2.4K11发布于 2021-02-24
  • 来自专栏我的技术专刊

    消息队列吞吐量调整

    关于吞吐量的一些思考 写入消息队列吞吐量取决于以下两个方面 * 网络带宽 * 消息队列(比如Kafka)写入速度 最佳吞吐量是让其中之一打满,而一般情况下内网带宽都会非常高,不太可能被打满,所以自然就是讲消息队列的写入速度打满 这就就有两个点需要平衡 * 批量写入的消息量大小或者字节数多少 * 延迟多久写入 go-zero 的 PeriodicalExecutor 和 ChunkExecutor 就是为了这种情况设计的 从消息队列里消费消息的吞吐量取决于以下两个方面 启动 queue,有了这些我们就可以通过控制 producer/consumer 的数量来达到吞吐量的调优了 func (q *Queue) Start() { q.startProducers

    73300编辑于 2021-12-16
  • 来自专栏通信分享

    【深度拆解】LDPC分层调度:5G基带里的“时间管理大师”,如何让吞吐原地起飞?

    摘要: 在5G动辄10Gbps的吞吐洪流面前,传统的LDPC译码架构早已不堪重负。当算法的迭代次数撞上硬件的时钟墙,我们该如何破局? IC后端工程师听了想打人:“大哥,现在频率已经跑通红了,每多一次迭代,延迟就翻倍,吞吐率直接腰斩。你让我怎么交差?”如何在不增加时钟周期的前提下,把收敛速度提升一倍? 这意味着:对于硬件来说,吞吐率直接翻倍!02 硬核拆解:芯片内部的“三大神兽”原理听起来简单,但要在FPGA或ASIC上把这套逻辑跑起来,全是工程难题。一个典型的分层译码器,内部住着三只“吞金兽”。

    13710编辑于 2026-02-04
  • 来自专栏全栈程序员必看

    jvm 吞吐量_jvm oom

    公式 吞吐量 = 运行代码时间 / (运行代码时间 + 垃圾收集时间) 示例 虚拟机总共运行了100分钟 1)运行代码:99分钟 2)垃圾收集:1分钟 吞吐量 = 99/100 = 99% 参数 -XX:GCRatio 设置吞吐量的大小 -XX:MaxGCPauseMillis 控制最大的垃圾收集停顿时间 分析 互联网交互式项目:需要在停顿时间范围内(100~200ms),保证最大吞吐量 (96%以上) 传统项目:需要在保证最大吞吐量范围内,尽可能的降低停顿时间 吞吐量越大,代表着垃圾收集时间越短,那么用户代码可以充分利用CPU资源,尽快完成程序的运算任务 版权声明:本文内容由互联网用户自发贡献

    56120编辑于 2022-11-10
  • 来自专栏流柯技术学院

    性能测试之吞吐

    这就是吞吐吞吐   单位时间内网络上传输的数据量,也可以指单位时间内处理客户请求数量。 它是衡量网络性能的重要指标,通常情况下,吞吐用“字节数/秒”来衡量,当然,你可以用“请求数/秒”和“页面数/秒”来衡量。 但是从业务的角度看,吞吐也可以用“业务数/小时或天”、“访问人数/小时或天”、“页面访问量/小时或天”来衡量。例如,在银行卡审批系统中,可以用“千件/小时”来衡量系统的业务处理能力。 点击(Hit Per Second) 点击可以看做是TPS的一种特定情况。点击更能体现用户端对服务器的压力。TPS更能体现服务器对客户请求的处理能力。 如果把每次点击定义为一个交易,点击和TPS就是一个概念。容易看出,点击越大。对服务器的压力也越大,点击只是一个性能参考指标,重要的是分析点击时产生的影响。

    2.8K40发布于 2018-08-30
  • 来自专栏颇忒脱的技术博客

    并行、延迟与吞吐

    “性能”这个词过于含糊,更准确的说应该是:延迟(latency)和吞吐量(throughput)。本文举几个简单的例子来解释在固定线程池大小的情况下,不同的并行程度与延迟和吞吐量的关系。 吞吐量对比 吞吐量的计算公式:吞吐量 = task数量 / 最慢的task所花费的时间。 下面是吞吐量对比图: ? 图中吞吐量线条的锯齿不用在意,因为这和是否用足了线程池中的线程有关。 拿不拆分task举例,当工作集=1时,吞吐量 = 1 / 2 = 0.5 tasks/sec,当工作集=6时 吞吐量 = 6 / 2 = 3 tasks/sec。 在如何估算吞吐量以及线程池大小提到计算吞吐量的公式: ? 在我们这个场景中,Tw=0,所以公式就变成了 C / Tc,我们的C=6,而Tc=2s,所以吞吐量就是3 tasks/sec。 同时可以看到,当6个CPU用满的情况下,无论任务如何做并行化处理,其吞吐量峰值维持不变。 当然你也不可能通过扩大线程池来提高吞吐量,因为CPU的数量是固定的。

    2.1K00发布于 2019-04-18
  • 来自专栏AI研习社

    英伟达发布 TensorRT 3 可编程推理加速器,比起 CPU 能实现高达 40 倍吞吐

    TensorRT 3 是在 Volta GPU 实现最优推理性能的关键,比起 CPU 它能实现高达 40 倍的吞吐量,时延在 7ms 之内。

    1.4K60发布于 2018-03-19
  • 来自专栏大宽宽的碎碎念

    延迟和吞吐的关系是什么?

    原回答: https://www.zhihu.com/question/279164955/answer/405448070 所谓的“性能”一般指的是吞吐和延迟这两件事。 所以整体看来,付出了你需要多等一点点时间的代价,换来的是整个“吞吐”的提高。长时间看下来,店员可以接待完毕的顾客数量比上一种要大得多。并且,这里说的等待是说从你到了队首到拿到东西的时间。 相信通过这个例子你可以大概明白一个排队系统里吞吐和延迟的关系,大概就是: 当吞吐量小时,延迟比较低,但是延迟低到一定成都受限于网络延迟、磁盘IO延迟的物理限制,无法进一步降低; 通过batch/并发等方式 ,可以有效提高系统的吞吐,此时延迟会着上涨,但不会像吞吐量那样长的那么快。 当压力超过了系统的某个临界值,吞吐不升反降,并且延迟会急剧上升 然而,现实会更加的复杂。上面假设店员每次拿东西时的时间差不多,这已经是非常理想的情况了。

    1.2K40发布于 2018-06-07
领券