Meta与博通宣布联合研发定制AI芯片,支撑吉瓦级超大规模AI生态。
上个月,Meta 发布四款自研AI芯片,专为自身人工智能任务量身定制。
这批搭载多元知识产权核的定制加速芯片统一归入MTIA(Meta训练与推理加速器)产品线,每款芯片均针对不同算力场景深度优化,涵盖生成式AI推理、通用算力以及AI模型训练等核心业务。近些年,全球人工智能产业高速发展,大模型落地、智能推荐、内容生成等业务持续扩张,头部科技企业的算力需求连年暴涨。受制于海外高端芯片供货限制、商用芯片成本高昂、通用架构适配性不足等问题,越来越多科技企业开始走向芯片自研道路。Meta 此前长期依赖外部算力芯片支撑AI业务,而四款MTIA芯片的集中推出,标志着其正式完成AI硬件自研的初步布局,通过差异化架构设计,针对性适配自身社交生态与大模型运算需求,有效控制能耗与运营成本。
如今Meta 正式官宣,将加码自研MTIA定制芯片,与博通达成深度联合研发合作,全面补齐AI算力缺口。双方将展开多年长期合作,落地多款定制XPU芯片,合作范围涵盖芯片设计、先进封装技术与高速网络架构研发。作为全球半导体行业的龙头厂商,博通在高端芯片架构设计、异构算力整合、先进封装工艺以及数据中心高速网络领域拥有长期技术沉淀和成熟的量产落地能力。反观Meta,优势集中在AI算法研发、超大算力集群运维以及海量C端产品场景落地。两家企业强强联合、优势互补,形成从芯片底层设计、封装制造到集群网络搭建的全链条协作模式。长期绑定的合作形式,也能保障AI芯片持续迭代,紧跟大模型技术升级节奏,稳定承接持续增长的算力消耗。
这项重磅合作首期目标,是搭建算力超1吉瓦的大型AI基础设施生态,并将逐步拓展至多吉瓦级别。Meta 明确表示,自研芯片将直接对标市面主流商用AI芯片方案,保持每年迭代多款新品的节奏,持续匹配自身高速增长的算力需求。在行业算力竞争愈发激烈的背景下,大规模算力基建已经成为布局通用人工智能的核心门槛。吉瓦级别的算力规划,能够帮助Meta 彻底摆脱外部芯片供应链的束缚,实现算力自主可控。同时,依托自研XPU与MTIA芯片,企业可根据业务负载灵活调整芯片性能,提升资源利用率,在大规模数据中心部署中形成性能、功耗、成本的综合优势,持续巩固自身在全球AI赛道的竞争力。
本次深度合作将全面依托博通自研的XPU定制化平台,该平台专为定制AI加速芯片研发打造,灵活性与拓展性极强,能够支撑多代芯片的迭代升级,持续优化Meta 整体AI基础设施架构。区别于传统通用芯片开发模式,定制化XPU平台采用模块化设计,可根据AI训练、推理等不同场景灵活调整硬件架构,缩短研发周期,降低迭代成本,为长期硬件升级规划提供稳定的技术底座。
除此之外,博通领先的以太网通信技术,将为Meta 持续扩张的AI计算集群,搭建高带宽、低延迟、无缝联动的高速网络体系。大型AI集群的稳定运行,高度依赖设备之间的数据传输效率,高速互联网络能够实现海量算力节点协同作业,保障大模型训练、实时AI推理等高强度任务高效运转。据悉,双方合作首期落地算力规模便突破1吉瓦,这也是双方多吉瓦级长期算力布局的起步阶段。按照统一的技术发展路线,双方将联合完成硬件设计、量产部署与规模化落地,为大众化通用智能技术的商业化应用打下硬件基础。
博通总裁兼首席执行官陈福阳表示,Meta 始终走在人工智能技术探索的前沿,此次战略合作的深化,是双方协同发展的重要一步。MTIA系列芯片的落地只是长期规划的开端,未来双方将持续推进多代新品研发,应对未来数年全球AI算力的爆发式增长。此次合作也进一步凸显了博通在AI网络传输、先进芯片定制领域的核心优势,依托成熟的XPU加速平台,持续深耕企业级AI硬件市场。
Meta 创始人兼首席执行官马克·扎克伯格则提到,Meta 正从芯片设计、封装工艺到网络搭建全维度布局底层硬件,打造超大规模算力体系,最终为全球数十亿用户提供普惠、高效的智能服务。企业将先完成超1吉瓦定制算力的部署,后续循序渐进扩容至多吉瓦级别,借助软硬件协同优化,全面提升全系AI产品的运行速度与能效水平,支撑各类创新AI功能的持续落地。
从行业发展视角来看,此次Meta 与博通的联手合作,以及MTIA芯片的持续优化迭代,是Meta 中长期AI基础设施建设的关键落子。在全球科技企业纷纷加码算力自研的大趋势下,自主可控的定制化芯片体系,能够有效抵御供应链波动风险,为全球化AI战略落地提供稳固支撑。随着定制AI芯片、先进封装、高速集群网络技术的不断成熟,软硬件协同研发将成为AI行业的主流发展方向,而Meta 的此次布局,也将为全球大型科技企业的算力自建模式提供重要参考。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。