首页
学习
活动
专区
圈层
工具
发布

谷歌将Marvell纳入双芯片TPU计划,ASIC AI推理格局或将重塑

(AI云资讯消息)消息称,谷歌正与美满电子(Marvell)联合推进两款芯片的开发工作:一款旨在对当前TPU架构进行性能优化,另一款则是面向未来的下一代TPU设计方案。目前已启动初步磋商。

双方谈判究竟进展到哪一步尚属未知,但从初步披露的信息看,谷歌已提出双芯片方案:一款用于增强现役TPU,另一款则是全新的TPU架构。这意味着,合作的基本路线图已然划定。

这两款讨论中的芯片定位截然不同。第一款并非我们通常理解的那种定制TPU计算芯片,而是一块专门负责处理内存的单元,它将与TPU搭配工作。简单来说,这款特定的加速器或IP模块会把主芯片或系统的一部分内存运算压力分担出去,交给这颗专用的MPU来处理,即所谓的“内存内处理”。

第二款正在洽谈的芯片则定位为新一代TPU,主打AI推理模型场景的专项优化。现阶段,谷歌旗下最顶尖的AI加速器当属TPU v7(Ironwood系列),其单颗芯片搭载192GB HBM高带宽内存,峰值性能高达4614万亿次浮点运算(TFLOPs),并可通过Superpod架构将9216颗芯片聚合成超大规模算力集群。

虽说ASIC在AI推理赛道被寄予厚望,但产业链的隐忧尚未消散。一方面,有消息显示谷歌Ironwood系列TPU的需求势头渐猛;另一方面,却不得不正视产能瓶颈因为各大主要晶圆厂的产线目前均已满载运转。

从定位上看,这款MPU更像是与英伟达Groq 3 LPX类似的协处理推理加速器,也就是所谓的LPU(语言处理单元)。其搭载了500MB的SRAM高速缓存,并实现了150 TB/s的恐怖总带宽,旨在让即将问世的Vera Rubin平台在运行Agentic AI任务时发挥出极致效能。

种种迹象表明,谷歌的下一代TPU或将与那款MPU深度绑定。通过这种异构计算架构,内存子系统的数据搬运效率将获得二次加速,这意味着未来AI模型在推理部署时的响应速度会更快。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O9YA8nlh2pCDl-iRucwt84jQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券