首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏存储公众号:王知鱼

    KIOXIA:RAID 卸载优化数据冗余

    要点速览 强化SSD侧的计算能力,构建计算型存储并不是新话题,本文从存储RAID计算切入,讨论在SSD上实现RAID卸载的xPUs 设计(Fig-2/3); NVMe 在计算卸载中发挥重要作用(Fig- KIOXIA:RAID 计算卸载优化数据迁移-Fig-4 xPUs 如何利用 RAID - 示例命令流程 图上半部分展示了从 NVMe - oF™虚拟设备,接收新数据,然后将数据移动到 CMB,并涉及

    49200编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    忆芯科技:Flash2DRAM 动态数据加载

    为解决这一问题,文中提出了利用高频和低频权重分离、以及计算存储(CSD)技术来优化内存使用(Fig-4)。 此外,还探讨了不同模型的参数、性能及成本,并提出了一些加速推理的具体策略,如模型量化、训练时权重剪枝和使用预加载机制来进一步提高效率(Fig-4)。 Fig-4 有限内存下的AI推理途径 推理过程与组件 QKV(高频组件) 是计算注意力权重的核心,用于捕获输入序列中各位置之间的相关性。

    55900编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Solidigm:AI数据管道与存储方案

    Fig-4 数据从对象存储层读取到缓存层,再由CPU做预处理(主要是大数据清洗过程,国内外很多软件公司在做这一层集成,提供 End-to-End 开箱即用式解决方案,如VAST)。

    59110编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    SuperMicro:AI存储硬件方案

    SuperMicro:AI存储硬件方案-Fig-4 计算+存储(性能层) 方案 • Active data is stored here (活跃数据存储于此) • 针对性能进行了优化,将数据尽可能快地传递给应用程序

    87510编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    微软:AI存储,SSD or HDD ?

    Fig-4 训练过程对存储的需求(容量/性能) 阶段 数据摄入 数据整理 训练和检查点 数据增长 • 数据生成• 数据获取 • 模型参数代表整理后的数据 • 模型参数和GPU数量• 检查点频率• 数据保留

    1.1K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Samsung:CXL 内存扩展更新

    Samsung:CXL 内存扩展更新-Fig-4 CXL 是基于PCIe生态构建的,两者的对比如下: CXL 是面向现代计算需求优化的互联技术,与 PCIe 的演进路径相比,具有更快的普及速度、更高的灵活性和针对未来计算场景的优化设计

    1.3K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    WD:HDDs 一直都在

    WD:HDDs 一直都在-Fig-4 存储组合将如何演变? 左侧图表:今天的存储组合(Today) • SSD = 10%:SSD目前占存储容量的10%,用于高性能需求。

    53710编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    AsteraLabs:CXL内存扩展在推理场景的应用

    AsteraLabs:CXL内存扩展在推理场景的应用-Fig-4 推理场景实测图-加速推理速度 CXL提高IO效率,从而提升GPU利用率 GPU利用率对比图:显示了OPT-66B模型在NVIDIA L40s

    1.2K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    XINNOR:高效RAID的存储实践

    分布式CLI用于管理多个服务器 使用所有可用CPU核心的一小部分,均匀分配负载 完全占用特定的专用CPU核心 仅支持x86 CPU 支持x86和ARM架构(DPU) XINNOR:高效RAID存储实践-Fig

    66810编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    NAND 闪存面临的机遇与挑战

    NAND 闪存面临的机遇与挑战-Fig-4 2023-2024年 应用需求占比分析 • 智能手机:2023年平均每台设备内容量为214.75GB,预计2024年增长到233.02GB,年增长率(YoY)

    82210编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    MLPerf:AI场景的存储测试标准

    基准测试分析 MLPerf:AI场景的存储测试标准-Fig-4 基于Gen5 NVMe SSD 的测试数据(关注带宽) • 性能 调整到每个基准测试的接近最大性能。

    1K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Micron:SSD替换主存,加速AI落地

    Fig-4 图左是CPU为中心计算架构,该图示意CPU/SSD/GPU 三者的工作顺序: 1. CPU 通过系统调用(IO/文件系统)open/read SSD 中原始数据; 2.

    48910编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    WD:适配GPU DAS的存储系统设计

    WD:适配GPU DAS的存储系统设计-Fig-4 存储解耦-将磁盘置于加速节点外的好处 将SSD移动到它们自己的机箱 在服务器中添加或使用现有的RNIC 利用NVMe-oF标准 从服务器中移除500至

    86910编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    NVIDIA:LLM集群存储IO行为(实测数据)

    NVIDIA:LLM集群存储IO行为-Fig-4 使用Megatron-LM框架进行大规模语言模型(LLM)训练的设置。主要特点包括: 1.

    43010编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    MetisX:从CXL内存扩展到近存计算

    MetisX:从CXL内存扩展到近存计算-Fig-4 1.

    41310编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    AsteraLabs:PCIe 长距离跨节点传输方案

    Fig-4 由于AI/ML工作负载导致的内存瓶颈 AI模型复杂度每6个月翻倍: 图表显示,AI工作负载需求持续增加(单位:Petaflops-days)。 需要更高的CPU效率和内存扩展能力。

    1.2K00编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Google/Meta:云服务商视角下的CXL应用

    云服务商视角下的CXL内存-Fig-4 冷数据具有良好的可压缩性(尽可能压缩以节约内存空间) • 冷数据可以以3:1的比例压缩 • 考虑到不可压缩的页面,实际压缩率更接近2:1 3:1 压缩比是如何得出的呢

    1.3K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Viking Enterprise:企业存储的分层视角

    Viking Enterprise:企业存储的分层视角-Fig-4 NVMEoF 互联优势 • 企业内通用接口 • 利用现有的以太网连接 • 消除基础设施内的多种协议接口 • 降低基础设施成本 • 简化基础设施管理

    56300编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    超微:下一代存储系统接口设计与实践

    超微:下一代存储系统接口设计与实践-Fig-4 传统存储托架设计(U.2) 1. 传统背板设计限制气流 传统背板设计,箭头指示气流受限的方向。 2.

    87600编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Solidigm:CSAL 云存储加速层实现与优势

    不随机工作负载到缓存设备:确保一致的性能 • 只追加访问模式:最小化复杂性和磨损 • 高效映射和查找:对于较大的I/Os,只用一个哈希项 • 无共享架构 Solidigm:CSAL 云存储加速层实现与优势-Fig

    73700编辑于 2025-02-11
领券