首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏SDNLAB

    英特尔公布IPU路线图,预计2025年推出 800G IPU

    5月10日,英特尔在“Intel Vision 2022”大会上公布了其最新的IPU(基础设施处理器)路线图,展示了从2022年至2026年IPU的整体规划。 IPU是一种可编程的网络设备,旨在使云和通信服务提供商减少在中央处理器方面的开销,并充分释放性能价值。在去年六月的Six Five 峰会上,英特尔对外介绍了其IPU愿景。 IPU路线图 英特尔的IPU 系列中有多种产品,本次大会上重点关注的是 ASIC IPU 和 FPGA IPU。使用 ASIC,可以获得更高的性能和更低的成本/功耗。 英特尔2022 IPU 系列 英特尔将继续 ASIC + FPGA IPU 设计,其IPU路线图如下: 2022年:推出200 Gbps IPU,代号为Mount Evans和Oak Springs Canyon 英特尔 IPU 路线图 以下是有关 200 Gbps 和 400 Gbps IPU 的一些详细信息: 200G Mount Evans Mount Evans是英特尔首个ASIC IPU,与Google

    1.9K40编辑于 2022-05-13
  • 来自专栏存储公众号:王知鱼

    Intel:IPU存储新引擎,提升数据运力

    为了解决这一困境,基础设施处理单元(IPU)应运而生。IPU 是一种新型的专用处理器,旨在将基础设施层从主计算层中彻底解耦,通过专用硬件和软件栈加速这些任务。 掌握 IPU 与 SmartNIC 的关键区别,认识到 IPU 在数据中心架构演进中的重要地位。 了解 IPU 如何将 NVMe-oF 发起端功能从主机完全迁移,从而大幅提升存储访问性能和效率。 英特尔基础设施处理单元 (Intel® IPU) 右侧是 IPU 模块示意图,Intel® IPU ES2000 型号已进入商业市场。 IPU 模式下的 NVMe 发起端: 处理位置: NVMe-oF 发起端的功能完全迁移到 IPU 上执行,通常在 IPU 自身运行的操作系统或存储软件栈(如基于 SPDK 的应用)中完成。 IPU 软硬件组件及其作用 图片展示了 IPU 如何通过一个精心设计的软硬件协同架构来实现高性能的 NVMe 发起端功能。

    10910编辑于 2026-03-09
  • 来自专栏存储公众号:王知鱼

    INTEL:基于IPU组建存储服务器集群

    通过对比IPU与DPU、AWS Nitro卡的差异,分析IPU作为独立服务器集群的优势,并结合Apache Cassandra等应用案例,揭示IPU在重塑数据中心架构中的关键作用和未来趋势。 阅读收获 深入了解基础设施处理单元(IPU)的概念、背景及其在现代数据中心中的作用。 掌握IPU与DPU、AWS Nitro卡的关键区别,以及IPU作为独立服务器集群的独特优势。 === 比较 IPU、DPU与AWS的Nitro加速卡 IPU (Intel): Intel 的 IPU 更侧重于提供一个通用的、可编程的平台,可以灵活地适应不同的基础设施需求。 图注:IPU 互联集群的下一步研究方向 幻灯片展望了 IPU 技术和基于 IPU 的解决方案的未来发展方向。 下一代 IPU: 将从当前的 200G IPU 升级到下一代 Mount Morgan IPU 400G SoC,这意味着网络带宽将得到提升。

    1K10编辑于 2025-04-14
  • 来自专栏云深知网络 可编程P4君

    英特尔正式发布IPU芯片Mount Evans

    芯片榜: Fungible DPU芯片榜: Intel DPU芯片榜: Nvidia DPU芯片榜: Pansando 连翻造势后 Intel公司终于在 Architecture Day 2021 揭开了IPU 这个新物种的面纱 Nvidia弯道超车把Bluefield改名DPU 失去先机的Intel不想拾人牙慧偏叫IPU 从DPU到IPU再到SPU,“PUA”上瘾了! 新的IPU芯片 被称为Mount Evans 与某大型云服务商一起设计 疑问:这次还是微软Azure吗? 200G带宽的IPU 由网络系统和计算系统组成 在网络部分 除了RDMA/NVMe外 由P4 Studio负责报文处理 Intel终于暴露了收购Barefoot的意图 与之前分析一致:有关P4与智能网卡的一切

    92030编辑于 2023-02-15
  • 来自专栏云深知网络 可编程P4君

    谷歌携手英特尔杀入IPU处理器

    美国时间10月27召开的 “Intel Innovation” 创新大会 终于揭开对网工来讲最大的悬念 Intel公布了IPU芯片的合作伙伴-谷歌 英特尔正式发布IPU芯片代号Mount Evans 新官上任 Nick亲自讲解 Intel Intelligent Fabric 也就是CPU+IPU+Tofino的组合 Intel架构大调整! 谷歌大佬有话说 关于谷歌跳坑IPU 因为碰到所有公有云的问题 需要IPU来解决安全/IO/性能等问题 发布会还有一个重大更新 Intel官宣25.6T可编程交换芯片 闲人退散!

    43820编辑于 2023-02-15
  • 来自专栏SDNLAB

    【拆机测评】英特尔基于FPGA的 IPU表现如何?

    英特尔IPU路线图 目前英特尔IPU有两个主要的产品线,其一是基于FPGA的解决方案,另一个是基于ASIC的解决方案。 英特尔第一个公开披露的IPU代号为 Big Springs Canyon。 英特尔的第二个IPU代号为 Mount Evans,是英特尔首个ASIC IPU,与Google Cloud合作开发,目前针对高端和超大规模数据中心服务器。 Intel BSC IPU Lshw 以下是从Xeon D SoC 查看的 IPU 拓扑结构: Intel BSC IPU Xeon D 1612 Lstopo 下图是Xeon D的lscpu输出。 我们将 IPU 安装在 2U Supermicro Ultra服务器机架中,这些服务器既是 IPU 主机,也是 NVMeoF 目标系统。 结 语 英特尔IPU具有Xeon D CPU,允许基础设施提供商将IPU作为基础设施端点进行管理,然后通过FPGA提供选择性服务。

    1.7K11编辑于 2022-12-13
  • 来自专栏机器之心

    业界 | Graphcore提出IPU基准:全面测试硬件运行机器学习应用能力

    近日,该公司的开发人员使用 Poplar 应用库中的各种机器学习应用对 IPU、GPU 和 CPU 进行了性能对比。 Graphcore 的智能处理单元(IPU)是一种全新的 AI 加速器,可为现在和未来的机器学习工作负载带来前所未有的性能提升。 IPU 系统的一个特性是即使用很小的 batch size 的情况下也能得到很好的结果。 无论从哪个角度上看,使用 IPU 系统都能获得巨大的性能飞跃,获得超越所有现有技术的表现。 下表展示了单层 LSTM 网络在不同的延迟要求下,IPU 与 GPU 的表现对比: ? 该单层测试参数的数据来自百度。

    86780发布于 2018-05-10
  • 来自专栏云深知网络 可编程P4君

    英特尔IPU计划曝光,2025年推出800G芯片

    本周 英特尔重磅更新 其IPU产品最新路线图 英特尔正式发布IPU芯片Mount Evans 最新路标显示 Intel明后年推出400G产品 2025/2026年将推出800G产品 如果Nvidia 谷歌携手英特尔杀入IPU处理器 FPGA版本的Oak 虽然没有白纸黑字写明 但是服务于Azure也人尽皆知 数据中心网络与800G迄今最好的分享 数据中心400G系列 数据中心800G系列 400G 总而言之 言而总之 美帝已经亮剑 二营长,你的意大利炮给我拉上来 对樱桃司新产品感兴趣的樱桃粉点个赞和在看后,在公众号后台回复“vision”可以获取大会相关视频回放地址以及CEO演讲稿和Intel-IPU-Roadmap-Fact-Sheet

    89440编辑于 2023-02-15
  • 来自专栏机器之心

    详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能

    第二代 IPU 芯片图。 第一代 IPU 有 1216 个 tile,目前第二代 IPU 有 1472 个 tile。每个 IPU 内核最多可以执行 6 个线程,这些线程是包含其专有指令集架构 (ISA) 的代码流。 IPU 采用的是大规模并行同构众核架构。 IPU-Tiles 由 IPU-Core 和本地的存储器(256KB SRAM)组成,共有 1216 个。因此,一颗 IPU 芯片大约有 300MB 的片上存储器,且无外部 DRAM 接口。 连接 IPU-Tiles 的互联机制称作 IPU-Exchange,可以实现无阻塞的 all-to-all 通信,共有大约 8TB 的带宽。

    2.5K30编辑于 2022-03-04
  • 来自专栏SDNLAB

    开放可编程基础设施(OPI)项目,重新定义DPU/IPU

    OPI 将为基于 DPU 和 IPU 技术的下一代架构和框架培育一个社区驱动的、基于标准的开放生态系统。 “DPU/ IPU 是当今云计算和数据中心领域最具前景的技术典范,OPI 将通过支持 DPU/ IPU 技术的生态系统来加速应用发展。” OPI 将帮助 DPU/IPU 的基础设施建立和培育一个开放、创造性的软件生态系统。 随着 DPU / IPU 厂商越来越多,OPI 项目旨在帮助定义适用于任何厂商硬件产品的 DPU/IPU 软件栈的架构和框架;利用现有的合适的开源项目,如 DPDK、SPDK、OvS、P4 等,培育丰富的开源应用生态系统 OPI 项目旨在: 定义 DPU 和 IPU 描述适用于任何硬件解决方案的基于DPU和IPU的软件堆栈的供应商无关的框架和架构 支持创建丰富的开源应用程序生态系统 与具有相同愿景的现有开源项目(如 Linux

    1.9K20编辑于 2022-06-24
  • 来自专栏云深之无迹

    120帧高速动态捕捉GC0308模块

    本驱动使用的3.10内核,所以首先要配置dts,在内核启动阶段支持摄像头,结合硬件原理图,首先配置硬件接口属性: pinctrl_ipu1_4: ipu1grp-4 { /*++++ GC0308 _CSI0_DATA12 0x80000000 /*12-19八条数据线*/ MX6QDL_PAD_CSI0_DAT13__IPU1_CSI0_DATA13 _DAT15__IPU1_CSI0_DATA15 0x80000000 MX6QDL_PAD_CSI0_DAT16__IPU1_CSI0_DATA16 0x80000000 _DAT18__IPU1_CSI0_DATA18 0x80000000 MX6QDL_PAD_CSI0_DAT19__IPU1_CSI0_DATA19 0x80000000 _PIXCLK__IPU1_CSI0_PIXCLK 0x80000000 /*像素时钟*/ MX6QDL_PAD_CSI0_MCLK__IPU1_CSI0_HSYNC

    2.3K10发布于 2021-04-14
  • 来自专栏云深知网络 可编程P4君

    英特尔IPU产品线负责人跳槽Meta,元宇宙需要这样的网络硬科技!

    元宇宙扛把子 Meta最近流年不利 2021年财报发布后股价暴跌 市值跌出全球前十还消减核心部门规模 不过即使如此Meta也没有放弃高端人才招募 英特尔Tofino和IPU负责人Dama刚刚加盟Meta

    36820编辑于 2023-02-15
  • 来自专栏DPU

    DPU(IPU)使用 CXL 提升存储堆栈或服务工作流的软硬件处理流水线-INTEL

    构建高性能存储解决方案构建可扩展、分布式, 解耦、安全、可靠的横向扩展数据中心存储基础设施极具挑战性 当前的加速器卸载技术可能不足以满足对高性能安全存储解决方案日益增长的需求图片DPU (又称 IPU)

    50210编辑于 2024-09-21
  • Intel I/DPU及配套软件堆栈简介

    Intel类似DPU的产品,叫IPU(Infrastructure Processing Units)。Intel 2016年开始研发IPU,2020年才推出IPU计划。 一开始Intel的IPU是和谷歌合作开发的,并不对外销售。直到2024年5月20日才发布了面向大众市场的IPU E2100。 Intel的E2100 IPU分为两个型号:E2100-CCQDA2HL(全高半长)和E2100-CCQDA2(全高3/4长)。 引擎支持 PSP AES - GCM 128/256 符合安全标准SP800 - 193 可信平台模块2.0 软件堆栈 1.可编程的P4 堆栈,包括工具链、调试器、分析器以及面向应用的库,支持英特尔 IPU IPDK是一个开源、与供应商无关的驱动程序和 API 框架,用于在 CPU、IPU、DPU 或交换机上运行的基础设施卸载和管理。

    44610编辑于 2025-05-30
  • 来自专栏SDNLAB

    IPDK:可编程基础设施时代的开源开发框架(附PPT下载)

    IPDK是一个开源的、与厂商无关的驱动程序和API框架,可管理由CPU、IPU、DPU或交换机构建的基础设施。 DPU/IPU应该是下一个十年的可编程重要硬件载体,IPDK能否成为DPU/IPU的通用软件平台呢? DPU/IPU软件生态 DPU/IPU持续爆火,引得越来越多的玩家相继入局,除英伟达、英特尔和AMD等国外厂商,阿里、腾讯、锐捷、浪潮、芯启源、星云智联等本土厂商也持续发力。 PaaS:实现容器网络、代理服务等; PaaS场景下的CSI & CNI PaaS场景下的Calico Running on IPU PaaS场景下的Envoy on IPU 3. IPDK与DOCA相比,其独特之处在于它是一个面向DPU/IPU 等硬件进行抽象封装的公共开发套件。

    2.2K50编辑于 2022-04-29
  • 来自专栏存储公众号:王知鱼

    Intel:SPDK加速框架演进

    被明确指出是用于构建基于 IPU/DPU 的存储解决方案的理想框架。 利用 IPU/DPU 卸载: IPU/DPU 等平台提供了将这些计算密集型任务卸载到专用硬件(如 LCE)上的可能性。 基于 IPU LCE 验证: 利用英特尔 IPU 的 LCE 硬件能力作为平台,验证新的支持链式操作的加速框架设计和实现是可行且高效的。 IPU: NPI 传输: 在基于 IPU 的方案中,这是 NVMe-oF 发起端在 IPU 上的实现,负责通过网络发送/接收 NVMe 命令和数据。加速操作可能与这里的传输过程结合。 Intel IPU NVMe 发起端卸载的细节与优势: 能够了解英特尔 IPU 是如何实现 NVMe 发起端功能卸载的具体方法。

    12310编辑于 2026-03-09
  • 来自专栏AI科技评论

    斯坦福大学将差分隐私AI模型训练提速10倍,将用于新冠医学影像

    通过使用Graphcore IPU,斯坦福团队能够将具有差分隐私的人工智能训练速度提高10倍以上,将这项被认为计算难度过大而无法广泛使用的技术转变为现实世界的可行解决方案。 请继续阅读关于IPU使用成效的更多信息。 相比之下,纳米批次DPSGD在IPU上非常高效,结果比在GPU上快8到11倍,把时间从几天缩短到几小时。 对于IPU,由于IPU的MIMD架构和细粒度并行性可以实现高得多的处理效率,因此DPSGD所需的额外操作的计算开销要低得多(10%而不是50-90%)。 此外,隐私保护和纳米批次DPSGD需要使用Group Norm(组规范)而不是Batch Norm(批次规范),这可以由IPU加以快速处理,但会显著减慢GPU。

    70120发布于 2021-11-05
  • 来自专栏Hsinyan写字的地方

    Win10环境下使用VirtualBox部署多节点服务器

    默认设置如下 TYPE=Ethernet PROXY_METHOD=none BROWSER_ONLY=no BOOTPROTO=dhcp DEFROUTE=yes IPUA_FAILURE_FATAL=no IPU6 INIT=yes IPU6_AUTOCONF=yes IPU6_DEFROUTE=yes IPU6_FAILURE_FATAL=no IPU6_ADDR_GEN_MODE=stable-privacy TYPE=Ethernet PROXY_METHOD=none BROWSER_ONLY=no BOOTPROTO=static DEFROUTE=yes IPUA_FAILURE_FATAL=no IPU6 INIT=yes IPU6_AUTOCONF=yes IPU6_DEFROUTE=yes IPU6_FAILURE_FATAL=no IPU6_ADDR_GEN_MODE=stable-privacy

    96220编辑于 2022-06-19
  • 来自专栏云深知网络 可编程P4君

    果然啊,DPU们纷纷展开了自救!

    数据中心第三颗芯片不香了,但学习不能停 英特尔的IPU产品 包含ASIC版本的Mount系列 和FPGA版本的Springs Canyon系列 谷歌的Falcon协议 就运行在Mount Evans之上 当前产品线也开始为英特尔取得营收 谷歌公司率先放出 Falcon 传输协议草案 但是这不妨碍 IPU 产品走出数据中心 在更广阔的天地寻找不被广进的理由 这款被定位为 网络基础设施优化方案的设备 最早是用安全中的 方案有市场冲突后来就没名了 设备基于 谷歌同款的E2000 内置16颗ARM Neoverse N1 对外提供(4+1)x 25GbE 以太网口 其中的一个25G接口专门用来提供分析用途 继承了Tofino的衣钵 相信 IPU 的 P4 能力足够彪悍 只是英特尔不会再有当初对P4.org的投入 英特尔的愿景 是将 IPU 推入边缘场景 只是左手x86右手ARM两手相搏 如何避免狗熊掰棒子的局面再度重演 这不仅是英特尔也是最终用户首要考虑的问题

    26510编辑于 2024-04-24
  • 来自专栏CreateAMind

    究竟深度学习在干什么?

    可以很容易想到,IPU是很宽泛的,有太多的东西都是IPU。如通常的CPU就是一个IPU,GPU也是,一个数学函数也是一个IPU,一个程序也是,等等。当然,我们最关心的是机器学习。 一个机器学习的模型,如果我们停止它的学习,它也是一个IPU。 仅仅是IPU,就没有什么重要性。机器学习的模型,最重要的特征是可以学习。 这样,我们就进一步有了学习机的概念:学习机是一个IPU,但是,这个IPU可以在其输入数据的驱动下而改变自己处理信息的能力。 让我们从学习机倒回去看看IPU。前面说了,IPU就是一个处理信息的东西。我们问,这个东西里面有什么?其实就是有一个处理信息的机制。 所谓的学习,精确定义到IPU上面,那就是IPU里面的处理改变了。处理改变了,处理信息的能力就改变了,这就是机械式学习的精确定义。

    58630发布于 2018-07-24
领券