首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏存储公众号:王知鱼

    KIOXIA:FLASH 卸载DRAM

    KIOXIA:FLASH 卸载DRAM-Fig-1 1. 需求和场景在不断增加,用户对更高效数据访问的诉求不断涌现。 2. Note:结合前几日整理的CXL访问数据,直连的CXL在400ns以内,以这个数据来估计的话,实现外部3us以内,不是太困难的问题,特定场景还需特定分析。 KIOXIA:FLASH 卸载DRAM-Fig-9 应用场景与TCO 左侧是混合测试场景的DRAM卸载比例和性能数据。 75%,在此基础上使用FLASH的降低系统TCO的比例应在24%以内,可能并不那么诱人。 FLASH卸载DRAM比例-性能关系和TCO数据,基于此明确了FLASH的可参与空间(Fig8/9)。

    51100编辑于 2025-02-11
  • 来自专栏架构精进之路

    双十一聊聊利器:QUIC

    今天我们也围绕着“快”,来跟大家聊一下利器:QUIC。 1. HTTP3,弱网环境下也可以流畅访问了,未来3-5年内可能会普及 延时直播,RTMP over QUIC,延时从2s降低到800ms 即时通信(QQ、WeChat目前类似email,存在一定的延迟,还不是真正意义上的通信

    1.8K30发布于 2020-11-17
  • 来自专栏城域网光通信

    数据中心光传输应用

    本内容就数据中心传输的应用需求,提出了可行性的解决方案。 满足当前4K/8K高清视频,VR互动技术,在线有限,网络直播等应用的兴起。 克服了基于Internet网络架构带来的问题,令网络“提速”。 提出的应用由最初的干线网络的要求,下移至城域网的应用,令“错综复杂”的城域网络趋于简化发展,演变成大带宽的传输网络。

    90700发布于 2018-06-26
  • 来自专栏星融元

    星融元:浅谈RDMA与网络

    随着数据中心高带宽、的发展需求,RDMA也开始逐渐应用于某些要求数据中心具备高性能的场景中。 图片通过对比传统模式和RDMA模式对发送和接收数据的处理过程,RDMA技术最大的突破在于给数据中心通信架构带来了、超低的CPU和内存资源占用率等特性。 主要体现在RDMA的零拷贝网络和内核旁路机制。零拷贝网络网卡可以直接与应用内存相互传输数据,消除了在应用内存与内核内存之间的数据复制操作,使传输延迟显著降低。 星融元Asterfusion CX-N系列云交换机搭建的超低无损以太网能够很好地承载RoCEv2,并基于RoCEv2打造一张、零丢包、高性能的HPC高性能计算网络。 图片超低交换芯片,降低网络转发星融元Asterfusion CX-N系列云交换机,具备业界领先的超低能力,可满足高性能计算三大典型场景的网络的需求以及对紧耦合场景中“对于各计算节点间彼此工作的协调

    2.1K30编辑于 2023-04-06
  • 来自专栏FPGA/ARM/DSP技术专栏

    GPMC并口如何实现“小数据-,大数据-高带宽”

    AM64x、AM437x、AM335x、AM57x等处理器专用于与外部存储器设备的接口,如:(1)FPGA器件(2)ADC器件(3)SRAM内存(4)NOR/NAND闪存GPMC并口3大特点(1)小数据-在工业自动化控制领域中 ,如工业PLC、驱控一体控制器、运动控制器、CNC数控主板、继电保护设备、小电流接地选线等,极其注重精确性与快速性,GPMC并口“小数据-”的特点显得格外耀眼,能够很好地提高数据传输效率,降低传输成本 此方式适合“小数据-”场合。

    47200编辑于 2023-09-30
  • 来自专栏EMQ 物联网

    基于 RocksDB 实现高可靠、的 MQTT 数据持久化

    通过对 MQTT 会话相关概念以及 EMQX 会话持久化功能设计原理的介绍,帮助读者了解这一更加高可靠、的数据持久化方案。同时,我们还将基于 RocksDB 持久化能力进行更多新功能探索。 它针对快速、延迟的存储进行了优化,具有很高的写入吞吐。RocksDB 支持预写日志,范围扫描和前缀搜索,在高并发读写以及大容量存储能够提供一致性的保证。 图片哪些数据可以通过 RocksDB 持久化以 Clean Start = 0 连接的客户端的会话记录订阅数据(Subscriptions),在订阅写入 RocksDB,取消订阅从 RocksDB 删除每次客户端发布消息 QoS 1、QoS 2 消息,数据会写入 RocksDB,保留至确认后删除作为其他高吞吐延迟场景的 Storage,如保留消息、数据桥接缓存队列持久化能力扩展RocksDB 使用外部数据存储的企业用户则可以迁移到 RocksDB,从而获得更低的数据持久化方案。

    1.5K20编辑于 2022-08-08
  • 来自专栏日知录

    网络总算法

    网络总=核心网传播+核心网转发+终端空口 传播:1000千米来回10ms 转发:每隔1个路由器增加1ms,可以根据TTL值算经过了多少路由器 空口:4G为10ms,5G 为1ms,有线为1ms 举个例子 例如500KM距离,经过8个路由器,4G和5G到中心云及用户间数据交互如下: 4G网络到云中心总延时为2.5ms+8ms+10ms=20.5ms; 5G网络到云中心总为 2个4G用户数据交互网络总延时为5ms+16ms+20ms=41ms; 2个5G用户数据交互网络总为5ms+16ms+2ms=23ms。 备注:4G/5G客户端误差还是很大的,实际情况很难达到空口状态,4G终端延误差可能得几十毫秒,5G终端延误差可能达到十几毫秒。

    2K10发布于 2020-11-26
  • 《GraphQL状态图建模与控制能力解析》

    物联网设备态联拓扑的规模化落地进程中,设备状态图的高效查询与控制指令的调度,已然成为构筑全域物联交互体系的核心命题,传统物联查询接口的刚性范式,始终难以适配异构设备的态数据柔性获取需求,固定字段与固定接口的设计逻辑 GraphQL实时订阅机制为物联网设备控制指令的交互提供了全新的技术实现路径,其依托持久化连接构建的态推送体系,彻底摒弃了传统轮询模式的资源浪费与损耗,成为适配设备控制指令延迟需求的核心支撑能力, GraphQL实时订阅对设备控制指令延迟需求的满足能力,存在明确的场景化适配边界,并非能够全场景覆盖物联控制的严苛要求,在高密度设备集群的集中控制场景中,大量并发订阅会话会挤占传输带宽与运算资源, ,进一步加剧问题。 不同协议物联网设备的指令转换环节,会产生额外的损耗,让高要求的延迟需求难以落地,同时订阅机制的保活逻辑需要持续消耗链路资源与终端算力,在弱网、窄带环境中,保活机制的失效会直接中断指令推送,影响控制指令的实时传递与执行

    12410编辑于 2026-02-11
  • 来自专栏虚拟化笔记

    ovs vxlan 和吞吐

    ,水管壁粗糙弯曲不直,水流就慢,就大,水在水管里流得越快单位时间从水管口流出来的水就越多,影响吞吐。 netperf测试结果,单位是us。 ? 小报文pps大配置ethtool -N eth4 rx-flow-hash udp4 sdfn后ping没有改善,相比于vxlan处理引入的,更应当关注kvm对中断处理以及vcpu调度引入的 大报文bps大,因为有MTU限制,pps其实也不小,ovs vxlan处理和kvm处理会引入相等的,但这个只是大ppskvm引入时的10%,一条流处理有上限,不同流占用不同的物理cpu能提高 vxlan和namespace vxlan相比成20%增长,但加上kvm后,翻了二三倍,如果硬要知道vxlan encap/decap引入的比一下vm vxlan和vm vlan就知道了,

    2.4K11发布于 2021-02-24
  • 来自专栏AI系统

    【AI系统】CPU 计算

    在本文中我们将要探讨 CPU 的计算组成和影响产生的因素,并深入讨论 CPU 计算的产生。 在带宽环境下,会显著增加,因为数据需要更长时间才能传输到目的地,尤其在需要传输大数据量更为明显。 内存和的关系:内存的速度和延迟直接影响 CPU 的访问时间。 延迟的内存允许更快的数据传输和指令处理,从而减少了 CPU 的等待时间和总体计算。内存的类型和架构(如 DDR 与 SRAM,单通道与双通道)也会影响访问延迟。 优化内存配置可以显著降低,提高系统性能。 CPU 计算 下面将介绍 CPU 计算延时的组成和影响计算的相关因素。 计算:乘法和加法操作各自有独立的,分别用红色小箭头标注。 缓存操作:读取和写入缓存的相对较短,用绿色箭头表示。

    66710编辑于 2024-12-04
  • 来自专栏智算中心网络

    算力革命:RoCE实测推理比InfiniBand30%的底层逻辑

    在千亿级参数模型的分布式推理场景中,多节点GPU集群的通信效率直接影响任务吞吐量和表现,传统网络协议已难以满足高并发、延迟的算力需求。

    73610编辑于 2025-05-27
  • 来自专栏SDNLAB

    Ryu:网络探测应用

    本文将介绍笔者开发的网络探测应用。该应用通过LLDP数据包的和Echo数据包的计算得出链路的数据,从而实现网络链路的感知。详细原理和实现步骤将在文章中详细介绍。 同理反向的T2由绿色的箭头组成。此外,控制器到交换机的往返由一个蓝色箭头和一个绿色箭头组成,此部分时由echo报文测试,分别为Ta,Tb。 最后链路的前向后向平均T=(T1+T2-Ta-Tb)/2。 ? 图1. 测量链路原理图 获取LLDP 获取T1和T2的逻辑一样,均需要使用到Switches模块的数据。 计算链路 完成数据获取之后,还需要基于这些数据,计算出链路的,公式就是T=(T1+T2-Ta-Tb)/2。所以编写计算方法,示例代码如下。 探测应用运行结果截图如图2所示。 ? 图2.监控应用运行结果 总结 网络数据是网络重要数据,是许多网络决策的重要依据,所以网络数据测量非常重要。

    1.9K80发布于 2018-04-02
  • 来自专栏蒙奇D索隆的学习笔记

    【计算机网络】计算机网络的性能指标——带宽积、往返、信道利用率

    一、(Delay) 1.1 定义 是指数据(一个报文或分组)从网络(或链路)的一端传送到另一端所需的总时间,它由4部分构成;发送、传播、处理和排队。 可忽略 区分传输与传播 在数据的整个传播过程中,发送又可称为传输,别看传输与传播只有一字之差,它们二者的含义却截然不同: 传输:数据从节点传输到链路中所消耗的时间 传播:数据从链路传播到节点中所消耗的时间 t2是接收方处理数据的排队与处理 t3是接收方发送确认信息的发送 t4是确认信息在信道中的传播 RTT是整个过程的往返 由上图我们可以很清楚的看到,往返是不包含发送方的发送的, 在互联网中,往返还包括各中间节点的处理、排队及转发数据的发送。 四、信道利用率 信道利用率是指某个信道百分之多少的时间是有数据通过的。 结语 在今天的内容中我们介绍了计算机网络的4种性能指标: :是数据从网络的一端发送到另一端所需要的总时间,由发送、传播、排队、处理组成。

    1.5K10编辑于 2025-03-07
  • 来自专栏大话存储

    恢复带宽与的平衡

    以下示例演示了如何使用英特尔®傲腾™技术部署英特尔®傲腾™数据中心级固态硬盘,从而提高VMwarevSAN *等超融合基础架构解决方案的性能和容量。 英特尔®傲腾™数据中心级固态盘的硬件与系统堆栈软件大致相同,为系统带来了另一种平衡。即使在高负载下,始终如一的以及高耐用性使这些固态盘成为快速缓存或分层热数据的理想选择。 对于持久内存,空闲平均读取下降到100到340纳秒。5相较之前提到的带宽产品的,由于较低,因此可以使用较小的单元尺寸、一条高速缓存线访问该内存,同时仍然提供其全部带宽。 只有引入新的内存技术以及新的、更紧密集成的系统集成点,才能使系统恢复平衡。 随着英特尔®傲腾™技术的引入,英特尔为系统提供了一个新的内存来弥合DRAM与NAND固态盘之间的差距。 当系统架构师平衡好带宽需求和延时,就释放了CPU的强大功能。通过英特尔®傲腾™技术恢复带宽与之间的平衡,CPU现在可以快速消耗和处理数据,从而达到最佳系统性能。

    1.4K10发布于 2019-09-24
  • 转载:【AI系统】CPU 计算

    在本文中我们将要探讨 CPU 的计算组成和影响产生的因素,并深入讨论 CPU 计算的产生。 在带宽环境下,会显著增加,因为数据需要更长时间才能传输到目的地,尤其在需要传输大数据量更为明显。 内存和的关系:内存的速度和延迟直接影响 CPU 的访问时间。 延迟的内存允许更快的数据传输和指令处理,从而减少了 CPU 的等待时间和总体计算。内存的类型和架构(如 DDR 与 SRAM,单通道与双通道)也会影响访问延迟。 优化内存配置可以显著降低,提高系统性能。 CPU 计算 下面将介绍 CPU 计算延时的组成和影响计算的相关因素。 计算:乘法和加法操作各自有独立的,分别用红色小箭头标注。 缓存操作:读取和写入缓存的相对较短,用绿色箭头表示。

    45910编辑于 2024-12-11
  • 来自专栏软件绿色联盟动态

    极简、高速率、、高可靠的通信底座,华为智慧互联平台发布

    华为智慧互联平台的定位是为1+8+N设备提供极简、高速率、、高可靠的通信底座,使单一设备体验进化到全连接时代。 智慧互联平台架构是基于华为在通信领域多年的积累,对芯片和协议栈进行大量抽屉式自研替换,端管云协同,获得高速率、、高可靠性的互联体验。 Link Turbo kit:全网络聚合加速技术 Link Turbo kit基于华为全网络聚合加速技术,为华为设备与远端服务器、终端设备提供高速、的通信通道。 用户可以同时使用WiFi网络和4G网络,获得高带宽、、高可靠性的通信体验,下载峰值速率可达200MB/S,单4G速率提升70%。 华为智慧互联平台会给用户带来极简、高速率、、高可靠的连接体验,欢迎广大开发者通过智慧互联的4个kit快速接入华为智慧互联生态,共同打造全场景互联新体验! ·END·

    1.4K30编辑于 2022-03-31
  • HTTPDNS SDK解析优化方案

    但SDK会周期性尝试探测服务可用性,导致每十分钟解析会间歇性增加一次,如果您需要对解析进行优化,可参考本文档。 10分钟后会恢复原解析请求逻辑,导致每10分钟解析会间歇性增加。 解决方案 可以通过调整HTTPDNS SDK的解析超时时间,来优化解析

    1.2K70编辑于 2024-09-18
  • 来自专栏cwl_Java

    速读原著-TCPIP(TCP经受的确认)

    把从b s d i发送到s r v 4的7个A C K标记为经受的A C K。 绝大多数实现采用的为 200 ms,也就是说,T C P将以最大200 ms的等待是否有数据一起发送。 由于这个时间小于200 ms,因此我们在另一端从来没有观察到一个经受的A C K。 在经受的定时器溢出前总是有数据需要发送(如果有一个约为 16 ms等待时间越过了内核的 200 ms时钟滴答的边界,则仍可以看到一个经受的 A C K。在本例中我们一个也没有看到)。 Host Requirements RFC声明T C P需要实现一个经受的A C K,但必须小于500 ms。

    92710发布于 2020-03-11
  • 来自专栏存储公众号:王知鱼

    XConn:CXL内存应用的带宽和

    • 左侧展示的是传统的架构,每个主机(Host)有专属的DRAM配置,存在内存利用率的问题。 CXL 内存访问 与NUMA跨节点访存模型相似, • 直连内存的最低 • 其次是跨CPU的内存访问 • 其次的CXL直连内存单元 • CXL池化内存最高 更多 CXL 内存访问数据 左右是在两个平台上的CXL内存访问测试数据,平台2(右图)较平台1跨节点CXL访存,这可能是得益于CPU之间的通信优化。 直连CXL访存是直连内存的2倍; 2. 跨节点访问直连CXL内存是直连内存的3倍; 3. CXL池化内存的访问是直连内存的4倍; 4. 跨节点访问CXL池化内存是直连内存的6倍; 总结 • CXL交换机支持的内存池提供了解决“内存墙”问题的方案,适用于AI和高性能计算(HPC)。

    1.5K10编辑于 2025-02-11
  • 来自专栏韩曙亮的移动开发专栏

    【计算机网络】计算机网络 标性能指标 ( 速率 | 带宽 | 吞吐量 | | 带宽积 | 往返 RTT | 利用率 )

    文章目录 一、速率 二、带宽 三、吞吐量 四、 五、带宽积 六、往返 RTT 七、利用率 一、速率 ---- 1 . ; ④ 处理 : 主机 , 路由器上 , 处理接收到的分组信息 , 如提取分组的首部信息 , 检错 , 查找出口 等操作 ; 上述操作花费的时间成为处理 ; 五、带宽积 ---- “带宽积 ” 是 描述数据量的属性 , 表示在链路上的数据量 ; 计算公式 : 带宽积 (bit) = 传播 ( s ) \times 带宽 ( bit / s) 六、往返 RTT ---- 往返 RTT ( Round-Trip Time ) : 从 发送方 发送数据开始 , 到 发送方 接收到 接收方 的 确认数据 , 总共经历的 ; 往返 RTT 包含的时间 : 2 倍的传播 接收方处理 路由器转发处理 RTT 不包括从 发送方 的发送 , 和发送方的处理 ; 七、利用率 ---- "利用率" 概念 : 信道利用率 : \cfrac{数据通过的时间}{总时间

    2.4K00编辑于 2023-03-28
领券