首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏存储公众号:王知鱼

    KIOXIA:FLASH 卸载DRAM

    KIOXIA:FLASH 卸载DRAM-Fig-1 1. 需求和场景在不断增加,用户对更高效数据访问的诉求不断涌现。 2. Flash Memory 的探索 KIOXIA:FLASH 卸载DRAM-Fig-3 KIOXIA 推出基于CXL互联的FLASH产品:XL-FLASH 和 BiCS FLASH。 Note:结合前几日整理的CXL访问数据,直连的CXL在400ns以内,以这个数据来估计的话,实现外部3us以内,不是太困难的问题,特定场景还需特定分析。 75%,在此基础上使用FLASH的降低系统TCO的比例应在24%以内,可能并不那么诱人。 FLASH卸载DRAM比例-性能关系和TCO数据,基于此明确了FLASH的可参与空间(Fig8/9)。

    55300编辑于 2025-02-11
  • 来自专栏架构精进之路

    双十一聊聊利器:QUIC

    今天我们也围绕着“快”,来跟大家聊一下利器:QUIC。 1. 主要的特点包括: 0-1RTT完成一次加密的请求与响应 IETF标准 HTTP3标准 Chrome有20%的流量使用QUIC ? QUIC 与现有 TCP + TLS + HTTP/2 方案相比,有以下几点主要特征: 1)利用缓存,显著减少连接建立时间; 2)改善拥塞控制,拥塞控制从内核空间到用户空间; 3)没有 head of 3. 开启通讯发展新时代 QUIC 协议开创性的使用了 UDP 协议作为底层传输协议,通过各种方式减少了网络延迟。 相信 QUIC 能够可以在不远的未来,开启通讯行业发展的新时代。 HTTP3,弱网环境下也可以流畅访问了,未来3-5年内可能会普及 延时直播,RTMP over QUIC,延时从2s降低到800ms 即时通信(QQ、WeChat目前类似email,存在一定的延迟,还不是真正意义上的通信

    1.8K30发布于 2020-11-17
  • 来自专栏城域网光通信

    数据中心光传输应用

    本内容就数据中心传输的应用需求,提出了可行性的解决方案。 满足当前4K/8K高清视频,VR互动技术,在线有限,网络直播等应用的兴起。 克服了基于Internet网络架构带来的问题,令网络“提速”。 提出的应用由最初的干线网络的要求,下移至城域网的应用,令“错综复杂”的城域网络趋于简化发展,演变成大带宽的传输网络。

    90900发布于 2018-06-26
  • 来自专栏星融元

    星融元:浅谈RDMA与网络

    随着数据中心高带宽、的发展需求,RDMA也开始逐渐应用于某些要求数据中心具备高性能的场景中。 图片通过对比传统模式和RDMA模式对发送和接收数据的处理过程,RDMA技术最大的突破在于给数据中心通信架构带来了、超低的CPU和内存资源占用率等特性。 主要体现在RDMA的零拷贝网络和内核旁路机制。零拷贝网络网卡可以直接与应用内存相互传输数据,消除了在应用内存与内核内存之间的数据复制操作,使传输延迟显著降低。 星融元Asterfusion CX-N系列云交换机搭建的超低无损以太网能够很好地承载RoCEv2,并基于RoCEv2打造一张、零丢包、高性能的HPC高性能计算网络。 图片超低交换芯片,降低网络转发星融元Asterfusion CX-N系列云交换机,具备业界领先的超低能力,可满足高性能计算三大典型场景的网络的需求以及对紧耦合场景中“对于各计算节点间彼此工作的协调

    2.1K30编辑于 2023-04-06
  • 来自专栏FPGA/ARM/DSP技术专栏

    GPMC并口如何实现“小数据-,大数据-高带宽”

    GPMC是AM62x、AM64x、AM437x、AM335x、AM57x等处理器专用于与外部存储器设备的接口,如:(1)FPGA器件(2)ADC器件(3)SRAM内存(4)NOR/NAND闪存GPMC并口 3大特点(1)小数据-在工业自动化控制领域中,如工业PLC、驱控一体控制器、运动控制器、CNC数控主板、继电保护设备、小电流接地选线等,极其注重精确性与快速性,GPMC并口“小数据-”的特点显得格外耀眼 (3)低成本-低功耗“低成本、低功耗、高性能”是如今智能设备发展趋势,GPMC并口相对于PCIe串行接口,成本更低、功耗更低。 此方式适合“小数据-”场合。 程序流程说明:(1)ARM端通过GPMC总线将数据写入FPGA BRAM;(2)ARM端通过GPMC总线从FPGA BRAM读取数据;(3)判断写入与读取数据的正确性,并计算读写速率。

    48800编辑于 2023-09-30
  • 来自专栏EMQ 物联网

    基于 RocksDB 实现高可靠、的 MQTT 数据持久化

    通过对 MQTT 会话相关概念以及 EMQX 会话持久化功能设计原理的介绍,帮助读者了解这一更加高可靠、的数据持久化方案。同时,我们还将基于 RocksDB 持久化能力进行更多新功能探索。 它针对快速、延迟的存储进行了优化,具有很高的写入吞吐。RocksDB 支持预写日志,范围扫描和前缀搜索,在高并发读写以及大容量存储能够提供一致性的保证。 图片哪些数据可以通过 RocksDB 持久化以 Clean Start = 0 连接的客户端的会话记录订阅数据(Subscriptions),在订阅写入 RocksDB,取消订阅从 RocksDB 删除每次客户端发布消息 QoS 1、QoS 2 消息,数据会写入 RocksDB,保留至确认后删除作为其他高吞吐延迟场景的 Storage,如保留消息、数据桥接缓存队列持久化能力扩展RocksDB 使用外部数据存储的企业用户则可以迁移到 RocksDB,从而获得更低的数据持久化方案。

    1.5K20编辑于 2022-08-08
  • 《GraphQL状态图建模与控制能力解析》

    物联网设备态联拓扑的规模化落地进程中,设备状态图的高效查询与控制指令的调度,已然成为构筑全域物联交互体系的核心命题,传统物联查询接口的刚性范式,始终难以适配异构设备的态数据柔性获取需求,固定字段与固定接口的设计逻辑 GraphQL实时订阅机制为物联网设备控制指令的交互提供了全新的技术实现路径,其依托持久化连接构建的态推送体系,彻底摒弃了传统轮询模式的资源浪费与损耗,成为适配设备控制指令延迟需求的核心支撑能力, GraphQL实时订阅对设备控制指令延迟需求的满足能力,存在明确的场景化适配边界,并非能够全场景覆盖物联控制的严苛要求,在高密度设备集群的集中控制场景中,大量并发订阅会话会挤占传输带宽与运算资源, ,进一步加剧问题。 不同协议物联网设备的指令转换环节,会产生额外的损耗,让高要求的延迟需求难以落地,同时订阅机制的保活逻辑需要持续消耗链路资源与终端算力,在弱网、窄带环境中,保活机制的失效会直接中断指令推送,影响控制指令的实时传递与执行

    12810编辑于 2026-02-11
  • 来自专栏日知录

    网络总算法

    网络总=核心网传播+核心网转发+终端空口 传播:1000千米来回10ms 转发:每隔1个路由器增加1ms,可以根据TTL值算经过了多少路由器 空口:4G为10ms,5G 为1ms,有线为1ms 举个例子 例如500KM距离,经过8个路由器,4G和5G到中心云及用户间数据交互如下: 4G网络到云中心总延时为2.5ms+8ms+10ms=20.5ms; 5G网络到云中心总为 2个4G用户数据交互网络总延时为5ms+16ms+20ms=41ms; 2个5G用户数据交互网络总为5ms+16ms+2ms=23ms。 备注:4G/5G客户端误差还是很大的,实际情况很难达到空口状态,4G终端延误差可能得几十毫秒,5G终端延误差可能达到十几毫秒。

    2.1K10发布于 2020-11-26
  • 来自专栏虚拟化笔记

    ovs vxlan 和吞吐

    ,水管壁粗糙弯曲不直,水流就慢,就大,水在水管里流得越快单位时间从水管口流出来的水就越多,影响吞吐。 ,再用ping测试 iperf3 -c 192.168.200.2 -p 8099 -t 180 -l 1 -u #背景bps高,再用用ping测试 iperf3 -c 192.168.200.2 测试UDP netperf -H 192.168.111.2 -p 8077 -t UDP_RR -- -o mean_latency 数据 ping和iperf3测试结果,单位是ms。 netperf测试结果,单位是us。 ? 小报文pps大配置ethtool -N eth4 rx-flow-hash udp4 sdfn后ping没有改善,相比于vxlan处理引入的,更应当关注kvm对中断处理以及vcpu调度引入的

    2.4K11发布于 2021-02-24
  • 来自专栏AI系统

    【AI系统】CPU 计算

    带宽环境下,会显著增加,因为数据需要更长时间才能传输到目的地,尤其在需要传输大数据量更为明显。 内存和的关系:内存的速度和延迟直接影响 CPU 的访问时间。 延迟的内存允许更快的数据传输和指令处理,从而减少了 CPU 的等待时间和总体计算。内存的类型和架构(如 DDR 与 SRAM,单通道与双通道)也会影响访问延迟。 存储器访问(Memory Access Time): 存储器访问是指 CPU 访问主存储器或缓存所需的时间。这个受缓存层次结构(L1, L2, L3 缓存)和内存带宽的影响。 多级缓存(L1, L2, L3)可以减少访问主存储器的次数,从而降低访问。较高的缓存命中率会显著减少时。内存带宽中高内存带宽支持更快的数据传输,减少访问。 增加缓存容量:增加 L1、L2、L3 缓存的容量和优化缓存管理策略,可以提高缓存命中率,减少存储器访问。 使用高效的并行算法:开发和采用适合并行处理的算法,提高多核处理器的利用率,降低计算

    71610编辑于 2024-12-04
  • 来自专栏智算中心网络

    算力革命:RoCE实测推理比InfiniBand30%的底层逻辑

    在千亿级参数模型的分布式推理场景中,多节点GPU集群的通信效率直接影响任务吞吐量和表现,传统网络协议已难以满足高并发、延迟的算力需求。

    83110编辑于 2025-05-27
  • 来自专栏SDNLAB

    Ryu:网络探测应用

    本文将介绍笔者开发的网络探测应用。该应用通过LLDP数据包的和Echo数据包的计算得出链路的数据,从而实现网络链路的感知。详细原理和实现步骤将在文章中详细介绍。 同理反向的T2由绿色的箭头组成。此外,控制器到交换机的往返由一个蓝色箭头和一个绿色箭头组成,此部分时由echo报文测试,分别为Ta,Tb。 最后链路的前向后向平均T=(T1+T2-Ta-Tb)/2。 ? 图1. 测量链路原理图 获取LLDP 获取T1和T2的逻辑一样,均需要使用到Switches模块的数据。 计算链路 完成数据获取之后,还需要基于这些数据,计算出链路的,公式就是T=(T1+T2-Ta-Tb)/2。所以编写计算方法,示例代码如下。 探测应用运行结果截图如图2所示。 ? 图2.监控应用运行结果 总结 网络数据是网络重要数据,是许多网络决策的重要依据,所以网络数据测量非常重要。

    1.9K80发布于 2018-04-02
  • 来自专栏蒙奇D索隆的学习笔记

    【计算机网络】计算机网络的性能指标——带宽积、往返、信道利用率

    数据分组在路由器1与路由器2之间传播 数据分组在路由器2与路由器3之间传播 数据分组在路由器3与计算机2之间传播 排队:这里总共有3处排队: 路由器1在接收到分组后,分组需要排队等待处理 路由器 2在接收到分组后,分组需要排队等待处理 路由器3在接收到分组后,分组需要排队等待处理 处理:这里总共有3处处理: 路由器1对分组进行处理 路由器2对分组进行处理 路由器3对分组进行处理 1.3 注意事项 因此我们在解决实际问题,一定要注意分清实际的需求: 我们在以下3种情况下可以忽略目的地的: 需要简化模型,可忽略 目的地太少,可以忽略不计时,可忽略 题目没有明确说明要计算端到端的延时, t2是接收方处理数据的排队与处理 t3是接收方发送确认信息的发送 t4是确认信息在信道中的传播 RTT是整个过程的往返 由上图我们可以很清楚的看到,往返是不包含发送方的发送的, t3以及确认信息在链路中传播的传播t4组成。

    1.6K10编辑于 2025-03-07
  • 来自专栏大话存储

    恢复带宽与的平衡

    在这种形式下,空闲平均大约为10微秒,而NAND 固态盘则超过80微秒4 。图3显示了系统硬件和软件。 英特尔®傲腾™数据中心级固态盘的硬件与系统堆栈软件大致相同,为系统带来了另一种平衡。即使在高负载下,始终如一的以及高耐用性使这些固态盘成为快速缓存或分层热数据的理想选择。 如图3所示,使用英特尔®傲腾™数据中心级持久内存进行数据访问的要比使用英特尔®傲腾™数据中心级固态盘小得多。 对于持久内存,空闲平均读取下降到100到340纳秒。5相较之前提到的带宽产品的,由于较低,因此可以使用较小的单元尺寸、一条高速缓存线访问该内存,同时仍然提供其全部带宽。 图3:NAND固态盘、英特尔®傲腾™数据中心级固态盘和英特尔®傲腾™数据中心级持久内存的比较。

    1.4K10发布于 2019-09-24
  • 转载:【AI系统】CPU 计算

    带宽环境下,会显著增加,因为数据需要更长时间才能传输到目的地,尤其在需要传输大数据量更为明显。 内存和的关系:内存的速度和延迟直接影响 CPU 的访问时间。 延迟的内存允许更快的数据传输和指令处理,从而减少了 CPU 的等待时间和总体计算。内存的类型和架构(如 DDR 与 SRAM,单通道与双通道)也会影响访问延迟。 存储器访问(Memory Access Time): 存储器访问是指 CPU 访问主存储器或缓存所需的时间。这个受缓存层次结构(L1, L2, L3 缓存)和内存带宽的影响。 多级缓存(L1, L2, L3)可以减少访问主存储器的次数,从而降低访问。较高的缓存命中率会显著减少时。内存带宽中高内存带宽支持更快的数据传输,减少访问。 增加缓存容量:增加 L1、L2、L3 缓存的容量和优化缓存管理策略,可以提高缓存命中率,减少存储器访问。 使用高效的并行算法:开发和采用适合并行处理的算法,提高多核处理器的利用率,降低计算

    49310编辑于 2024-12-11
  • 来自专栏软件绿色联盟动态

    极简、高速率、、高可靠的通信底座,华为智慧互联平台发布

    华为智慧互联平台的定位是为1+8+N设备提供极简、高速率、、高可靠的通信底座,使单一设备体验进化到全连接时代。 智慧互联平台架构是基于华为在通信领域多年的积累,对芯片和协议栈进行大量抽屉式自研替换,端管云协同,获得高速率、、高可靠性的互联体验。 Link Turbo kit:全网络聚合加速技术 Link Turbo kit基于华为全网络聚合加速技术,为华为设备与远端服务器、终端设备提供高速、的通信通道。 用户可以同时使用WiFi网络和4G网络,获得高带宽、、高可靠性的通信体验,下载峰值速率可达200MB/S,单4G速率提升70%。 华为智慧互联平台会给用户带来极简、高速率、、高可靠的连接体验,欢迎广大开发者通过智慧互联的4个kit快速接入华为智慧互联生态,共同打造全场景互联新体验! ·END·

    1.4K30编辑于 2022-03-31
  • HTTPDNS SDK解析优化方案

    但SDK会周期性尝试探测服务可用性,导致每十分钟解析会间歇性增加一次,如果您需要对解析进行优化,可参考本文档。 10分钟后会恢复原解析请求逻辑,导致每10分钟解析会间歇性增加。 解决方案 可以通过调整HTTPDNS SDK的解析超时时间,来优化解析

    1.3K70编辑于 2024-09-18
  • 来自专栏NebulaGraph 技术文章

    NebulaGraph v3.3.0 性能报告,Match count QPS 有 2~8 倍提升,3 跳查询 QPS 至原 13

    v3.3.0 版本主要优化了执行计划和属性裁剪,并对深度多跳场景进行特别优化,相关 case 的性能有明显的提升,相比 v3.2.0: 1) Match count QPS 增幅明显,有 2~8 倍的提升;降低至原 1/5. 2) 3 跳查询 QPS 提升约 40-100%,至原 1/33) 对于内存占用和释放进行了优化 4) 其他各 case 有不同程度提升; 测试环境 服务器和压测机皆为物理机 图片 测试用的图空间分区数为 24,副本数为 3。 = 'yyy' with v, v2 as v3 return length(v.Person.browserUsed) + (v3.Person.gender) 吞吐率 图片 服务端耗时(ms) 图片 Go3StepDistinctDst GO 3 STEP FROM {0} OVER KNOWS REVERSELY YIELD DISTINCT KNOWS.

    69830编辑于 2022-11-30
  • 来自专栏cwl_Java

    速读原著-TCPIP(TCP经受的确认)

    把从b s d i发送到s r v 4的7个A C K标记为经受的A C K。 绝大多数实现采用的为 200 ms,也就是说,T C P将以最大200 ms的等待是否有数据一起发送。 由于这个时间小于200 ms,因此我们在另一端从来没有观察到一个经受的A C K。 在经受的定时器溢出前总是有数据需要发送(如果有一个约为 16 ms等待时间越过了内核的 200 ms时钟滴答的边界,则仍可以看到一个经受的 A C K。在本例中我们一个也没有看到)。 Host Requirements RFC声明T C P需要实现一个经受的A C K,但必须小于500 ms。

    93210发布于 2020-03-11
  • 来自专栏存储公众号:王知鱼

    XConn:CXL内存应用的带宽和

    • 左侧展示的是传统的架构,每个主机(Host)有专属的DRAM配置,存在内存利用率的问题。 CXL 内存访问 与NUMA跨节点访存模型相似, • 直连内存的最低 • 其次是跨CPU的内存访问 • 其次的CXL直连内存单元 • CXL池化内存最高 更多 CXL 内存访问数据 左右是在两个平台上的CXL内存访问测试数据,平台2(右图)较平台1跨节点CXL访存,这可能是得益于CPU之间的通信优化。 直连CXL访存是直连内存的2倍; 2. 跨节点访问直连CXL内存是直连内存3倍; 3. CXL池化内存的访问是直连内存的4倍; 4. 跨节点访问CXL池化内存是直连内存的6倍; 总结 • CXL交换机支持的内存池提供了解决“内存墙”问题的方案,适用于AI和高性能计算(HPC)。

    1.6K10编辑于 2025-02-11
领券