Fig-10 图片比较了基于TLC缓存+HDD对象存储层(黄底)和全QLC介质层存储方案,在节约机架和存储能耗上的差异: 基于全QLC介质方案,存储集群整体: • 使用机架,减少到原1/4; • 能耗降低
检查点异步写入 NVIDIA:LLM集群存储IO行为-Fig-10 并行检查点写入,提高效率。
WD:适配GPU DAS的存储系统设计-Fig-10 以GPU为中心的存储扩展系统,从左往右依次为: 本地SSD存储; 基于网络扩展的存储系统(文件/块存储),DPU加持下的数据网络交换机,可支持GPU
MLPerf:AI场景的存储测试标准-Fig-10 • 为 AI 进行存储基准测试成本高昂,并且寻找数据集十分困难。 • MLPerf 存储使得测试 AI 应用程序的存储变得更容易。
Fig-10 PCIe 线缆选型 对比的关键点 通道数量与尺寸: OSFP-XD 提供最多的 16 个通道,同时 PCB 尺寸更紧凑(2292 mm²)。
超微:下一代存储系统接口设计与实践-Fig-10 CXL (Type 3) 内存扩展的应用案例 1. 容量扩展 • 增加内存而不增加服务器。 • 针对内存容量密集型的工作负载(如IMBD)。 2.
小结 Viking Enterprise:企业存储的分层视角-Fig-10 • 闪存在某些层级(0和1)中有其位置,不可替代; • 平衡的企业会同时包含HDD和闪存; • 这种平衡方法推动多种不同的存储接口进入企业环境
云服务商视角下的CXL内存-Fig-10 接下来做什么? OCP 规范只是起点: • 新产品不应该“追着目标跑”(shoot behind the duck)。
设备集成度 PCIe 5.0 互联拓扑设计-Fig-10 PCIe 设备的集成化设计,主要包括: 单 GPU 设备:标准 PCIe 卡中集成单个 GPU。
总结 KIOXIA:使用SSD加速RAG场景落地-Fig-10 • RAG 和 ANNS 是现代 LLM 解决方案中的关键组件。
Intel、AMD服务器NVMe SSD IO拓扑速查手册 NVIDIA:GPU作为数据访问引擎的计算架构设计-Fig-10 配图右侧说明: 基于BaM GPU直接访问NVMe设备,能在4块PCIe Gen4
Fig-10 基于AMD的NVMe构建块性能 • 单个构建块性能: IOR写入性能:79.2 GB/s IOR读取性能:81.2 GB/s IOR降级读取性能:76.6 GB/s • 单个机架性能(1个
文中重点分析基于PCIe总线的内存/IO路径,因PCIe开销问题而效率有限,同时提出若干NVMe -oC场景的落地架构(Fig-10/11/12),不得不指出,这条路还比较远。
Fig-10:“子驱动器” 磨损均衡技术 图片介绍了一种使用“子驱动器”进行磨损均衡的技术。