首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏存储公众号:王知鱼

    微软:AI存储,SSD or HDD ?

    设备级 Mbps(读/写)• 延迟 工作负载 • 原始数据• 结构化和非结构化数据• 文本、视频、图像等 • 向量化/结构化• 减少占用空间• 大块数据集 • 高读写吞吐量• 工作负载随GPU数量扩展 Fig 基于自己过去云资源实践,从投资角度来看,并没有完全转向QLC-SSD,仍是基于HDD来构建温数据层,减少存储硬件投资; • 在温数据层基于Blob对象存储引擎,和业界现在普遍热议的并行文件系统不同(Fig

    1.1K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Solidigm:AI数据管道与存储方案

    Fig-5 训练过程,数据在GPU集群HBM/DRAM中,主要是随机读写。

    59110编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    SuperMicro:AI存储硬件方案

    SuperMicro:AI存储硬件方案-Fig-5 计算+存储(性能层)+容量层 方案 所有训练数据集和模型都存储在本地 • 数据湖使用容量优化的存储。

    87510编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Samsung:CXL 内存扩展更新

    Samsung:CXL 内存扩展更新-Fig-5 CMM-H(分层内存)有2种模式 • 分层内存模式(左):优化性能,利用 DRAM 缓存提升访问速度,SSD 提供高容量。

    1.3K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    忆芯科技:Flash2DRAM 动态数据加载

    通过将高频权重保存在GPU/NPU的DRAM中,并利用CSD预测并加载所需的低频权重,可以显著减少内存需求(Fig-5/6)。 推理优化方法(Inference Optimization) Fig-5 计算型存储(CSD)在推理中的作用 左图示意基于计算型存储耦合的加速计算系统(尤其在边缘受限场景)。

    55900编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    KIOXIA:RAID 卸载优化数据冗余

    KIOXIA:RAID 计算卸载优化数据迁移-Fig-5 为什么 xPU 应该用于 SSD RAID 卸载? 左侧内容: xPU 可以利用其自身加速器,但为什么要卸载到 SSD?

    49200编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    AsteraLabs:CXL内存扩展在推理场景的应用

    生成长度(GEN_LENGTH):8 • GPU批处理大小(GPU_BATCH_SIZE):2 • 并发批处理(NUM_BATCHES):12 AsteraLabs:CXL内存扩展在推理场景的应用-Fig

    1.2K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    XINNOR:高效RAID的存储实践

    XINNOR:高效RAID存储实践-Fig-5 xiSTORE 是面向 HPC 和 AI 市场的软件定义存储 (SDS) 解决方案,基于速度最快、最可靠的 RAID 引擎 xiRAID,结合 Lustre

    66810编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    MLPerf:AI场景的存储测试标准

    MLPerf:AI场景的存储测试标准-Fig-5 传输大小直方图 • Unet3D 使用 PyTorch,并显示出较大比例的 128KB 传输,且无更大IO。

    1K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    NAND 闪存面临的机遇与挑战

    NAND 闪存面临的机遇与挑战-Fig-5 1. 需求位增长率 (Demand Bit Growth YoY) 的变化趋势: • 需求增长在2020年达到最高点,随后逐渐下降到2022年的19.3%。

    82210编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Micron:SSD替换主存,加速AI落地

    Fig-5 • 系统配置 • SuperMicro SYS-512E-TNRT( Supermicro 512 系列服务器) • 双插槽Intel Xeon Platinum 8568Y+(48核/96

    48910编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    WD:适配GPU DAS的存储系统设计

    WD:适配GPU DAS的存储系统设计-Fig-5 图示 Nvidia 基于WD SN655系列 NVMe-SSD 构建的GDS 直连存储AI加速服务器,主要特征如下(从左往右): CPU/GPU服务器

    86910编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    NVIDIA:LLM集群存储IO行为(实测数据)

    负载分析 NVIDIA:LLM集群存储IO行为-Fig-5 负载特征。 上图为GPU计算时负载(含训练和检查点写入); 下图是训练时存储读写带宽,后文详细展开分析。

    43010编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    MetisX:从CXL内存扩展到近存计算

    MetisX:从CXL内存扩展到近存计算-Fig-5 当数据量不断增加.... 当数据量增加时,你需要更多的内存和计算能力 但增加更多节点不起作用,也不高效。

    41310编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    AsteraLabs:PCIe 长距离跨节点传输方案

    Fig-5 异构基础设施的兴起 Converged Infrastructure(传统融合架构) 特点: 每个节点均包含固定的CPU、内存(DIMMs)、存储设备(Drives)、GPU和网络接口卡(NICs

    1.2K00编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Viking Enterprise:企业存储的分层视角

    • 简化基础设施管理 • 没有额外的学习成本,我们都知道如何管理基于以太网的设备 • 提供企业管理的统一面板 • 更高效地利用带宽和可用资源 Viking Enterprise:企业存储的分层视角-Fig

    56300编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Google/Meta:云服务商视角下的CXL应用

    云服务商视角下的CXL内存-Fig-5 冷数据对带宽需求很低 • 冷数据只需要约1%的系统内存带宽。 图表说明: • 图中显示了二级访问比率的累积分布函数(CDF)和概率密度函数(PDF)。

    1.3K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    超微:下一代存储系统接口设计与实践

    超微下一代存储系统接口设计与实践-Fig-5 EDSFF存储托架设计(E3.S) 1. EDSFF托架设计优化了气流 优化气流管理,气流通过组件之间流动,从而提升散热性能。 2.

    87600编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Solidigm:CSAL 云存储加速层实现与优势

    Open CAS v.s CSAL Solidigm:CSAL 云存储加速层实现与优势-Fig-5 写入带宽(Write bandwidth): • 与 Open CAS 相比,CSAL 在大部分测试中的带宽表现更加一致并且较高

    73700编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    PCIe Gen5 互联拓扑设计与经验

    PCIe 5.0 互联拓扑设计-Fig-5 右图显示,基于PCIe HBR(交换卡)实现跨节点数据互通。

    1.8K00编辑于 2025-02-11
领券