首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏ml

    HDUOJ----2487Ugly Windows

    And Fig-3 gives a more complicated overlapping. Fig-3 If a window has no parts covered by other windows, we call it a “top window” (The frame is also

    62090发布于 2018-03-22
  • 来自专栏存储公众号:王知鱼

    Solidigm:AI数据管道与存储方案

    对象存储层 • 存储服务器或JBOD,包含大量存储设备(目前通常是HDD) Fig-3 在数据摄取环节,原始文件顺序写入到对象存储层中。

    59110编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    SuperMicro:AI存储硬件方案

    SuperMicro:AI存储硬件方案-Fig-3 基础计算硬件方案 在执行 AIOps 和 MLOps 时: • GPU 密集型服务器加速 AI 训练和推理。

    87510编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Samsung:CXL 内存扩展更新

    参考阅读: • 基于CXL™-Type3 实现内存池化 • Samsung:CXL设备类型和协议 Samsung:CXL 内存扩展更新-Fig-3 三星提供了三种CXL(Compute Express

    1.3K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    微软:AI存储,SSD or HDD ?

    Fig-3 图示 AI训练工作流中存储层动态交互过程。

    1.1K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    忆芯科技:Flash2DRAM 动态数据加载

    LLM正驱动着工业革命的下一个浪潮,但其巨大的模型尺寸要求大量内存,对边缘和端点设备构成挑战(Fig-3)。 Fig-3 边缘推理的内存挑战 边缘推理的优势 边缘设备推理能够提高隐私性、安全性和个性化,减少网络依赖和延迟,非常适合实时应用。

    55900编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    KIOXIA:RAID 卸载优化数据冗余

    KIOXIA:RAID 计算卸载优化数据迁移-Fig-3 左侧示意:存储系统的RAID/EC计算过程调用DRAM资源; 右侧示意:RAID/EC过程使用SSD阵列中自带的CMB(控制器内缓存)。

    49200编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    WD:HDDs 一直都在

    WD:HDDs 一直都在-Fig-3 分层存储模型(Tiered Storage Model) 1. Tier 1:NVMe SSD • 最高性能,适合对存储性能要求极高的应用场景。

    53710编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    AsteraLabs:CXL内存扩展在推理场景的应用

    参考阅读: • KIOXIA:使用SSD加速RAG场景落地 • WD:Flash加速AI推理在端侧落地 AsteraLabs:CXL内存扩展在推理场景的应用-Fig-3 基于CXL优化的AI推理服务器性能结果

    1.2K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    XINNOR:高效RAID的存储实践

    • 检查点(Checkpoint)写入阶段,GPU低利用率,IO写带宽达到75GB/s 项目细节,参考阅读: • NVIDIA:LLM集群存储IO行为(实测数据) XINNOR:高效RAID存储实践-Fig

    66810编辑于 2025-02-11
  • 来自专栏朴素人工智能

    10分钟理解Focal loss数学原理与Pytorch代码(翻译)

    fig-3 FL vs CE 在上图中,“蓝”线代表交叉熵损失。X轴即“预测为真实标签的概率”(为简单起见,将其称为pt)。

    18.1K11发布于 2020-07-27
  • 来自专栏存储公众号:王知鱼

    NAND 闪存面临的机遇与挑战

    NAND 闪存面临的机遇与挑战-Fig-3 2020-2024 国际NAND市场中的代次占比: • MLC及更少位NAND(图中黄色),市场份额逐渐减少,目前(2024)不及5%; • TLC三层单元为市场普遍采用

    82210编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    MLPerf:AI场景的存储测试标准

    Unet3D(医学影像/计算机视觉) 即将到来的1.0版本将支持的模型: • Unet3D • Resnet50(计算机视觉) • CosmoFlow(高性能计算HPC) MLPerf:AI场景的存储测试标准-Fig

    1K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Micron:SSD替换主存,加速AI落地

    低性能 • 新方法 (BaM) • 专有驱动程序 • GPU协调所有I/O传输 • CPU完全被绕过 • 利用GPU的高并行性,饱和GPU和NVMe设备之间的PCIe总线,实现细粒度的I/O • 高性能 Fig

    48910编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    WD:适配GPU DAS的存储系统设计

    WD:适配GPU DAS的存储系统设计-Fig-3 GPU 直连存储架构-本地存储的考量点 左侧内容: 许多服务器平台由于架构不完善,限制了 NVMe 通过 PCIe 访问 GPU 的能力。

    86910编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    NVIDIA:LLM集群存储IO行为(实测数据)

    H100 GPU(下文测试非全量算力) • Quantum-2 NDR InfiniBand网络,具有独立的计算(8-rail)和存储(2-rail)结构 存储系统 NVIDIA:LLM集群存储IO行为-Fig

    43010编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    MetisX:从CXL内存扩展到近存计算

    MetisX:从CXL内存扩展到近存计算-Fig-3 用于 RAG 的向量数据库 1.

    41310编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    AsteraLabs:PCIe 长距离跨节点传输方案

    Fig-3 基于PCIe扩展AI基础设施 左侧机架设计有以下几个亮点: 单个机架中包含通用计算节点(Compute)和AI加速节点(AI Cluster) 加速节点的设计,不是当前业界CPU+GPU的耦合设计

    1.2K00编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Google/Meta:云服务商视角下的CXL应用

    云服务商视角下的CXL内存-Fig-3 DDR中存储了大量的冷数据! • 图表说明了不同应用/场景中内存使用的分布情况。

    1.3K10编辑于 2025-02-11
  • 来自专栏存储公众号:王知鱼

    Viking Enterprise:企业存储的分层视角

    Viking Enterprise:企业存储的分层视角-Fig-3 1. NVMeoF的定义和优势: • NVMeoF是一种架构协议,允许以太网接口将设备连接在一起。

    56300编辑于 2025-02-11
领券