本文将聚焦AI芯片/模块老化测试,解析液冷技术的核心优势,深入探讨BGA4000+pin脚特性与400KHz测试频率的技术逻辑,并结合鸿怡电子水冷测试治具的适配设计,展现高效老化测试的实现路径。 三、鸿怡电子水冷测试治具:精准适配AI芯片老化测试的技术实践针对AI芯片/模块老化测试的核心需求,鸿怡电子研发的AI芯片/模块水冷测试治具,通过针对性的结构设计和功能集成,实现了对BGA4000+pin (二)ESD设计:保障测试过程芯片安全AI芯片的精密电路对静电极为敏感,ESD(静电放电)防护是测试治具的核心安全设计。 在AI芯片功率密度持续攀升、封装集成度不断提高的背景下,液冷技术与高精度测试治具的结合,已成为破解老化测试难题的核心路径。 鸿怡电子AI芯片/模块水冷测试治具通过pin脚防呆、ESD防护、高效水冷等针对性设计,实现了对核心测试需求的完美契合,为AI芯片的可靠性验证提供了有力支撑。
AI驱动校准:通过机器学习动态补偿探针磨损,误判率降低至0.01%,并支持自动生成测试报告。 2. DDR芯片老化座与夹具治具多场景适配:GDDR测试治具支持10GHz高频颗粒,可同时测试4颗芯片,冷却系统确保稳定性;DDR芯片测试夹具(如HMILU-DDR96pin)采用合金翻盖设计,支持0.8mm 定制化服务:根据客户主板布局设计治具,如针对DDR5的288针接口优化探针排列,确保信号传输延迟<0.5ps。 鸿怡DDR存储芯片测试解决方案通过高精度、宽温域、智能化设计,为国产DDR芯片的研发和量产提供了关键支撑。 未来,随着3D堆叠、HBM等技术的引入,测试设备需进一步提升高频信号处理(如100GHz)和高密度集成能力,以满足AI、数据中心等场景的需求。
芯片出厂前的测试环节直接决定产品可靠性,而测试座、治具的适配性是保障测试精度与效率的核心。 测试座与测试治具适配方案(谷易电子案例)测试座与治具的结构设计、材质选择直接影响测试精度与效率,谷易电子针对三种芯片的特性,提供了差异化的定制方案,兼顾量产效率与测试可靠性。1. 测试治具采用模块化设计,支持有球/无球芯片测试,集成低功耗供电模块,可精准模拟移动设备的电压波动(±10%)。 LPDDR5/5X芯片测试座与治具应对LPDDR5/5X的高频、宽温域需求,谷易电子推出高精度旋钮翻盖式测试座与车规级双扣式测试座两大方案。 测试治具集成120GHz同轴探针与垂直TSV检测方案,支持AI驱动的测试优化,通过机器学习分析HTOL数据,动态调整测试参数。
一、概念辨析:芯片测试座、夹具、治具的定位与差异在芯片测试体系中,测试座、夹具、治具是 “核心接触 - 定位固定 - 功能实现” 的三级支撑体系,三者功能互补但定位不同,共同保障测试的精度、效率与可靠性 鸿怡电子典型应用工业芯片温老化治具:鸿怡为工业功率芯片(IGBT)设计的 “175℃高温老化治具”,集成测试座、加热模块、温度控制系统,可同时老化 32 颗芯片,老化过程中实时监测芯片漏电流,筛选出早期失效品 ,芯片长期可靠性提升 20%;医疗芯片高压耐压治具:针对医疗设备中的电源管理芯片,鸿怡定制高压隔离治具(隔离电压 1000V),集成过压保护功能,在 500V 耐压测试中,测试座接触阻抗稳定<5mΩ,确保耐压测试精度 三、三者协同应用:不同领域的测试体系搭建芯片测试的精准与高效,依赖测试座、夹具、治具的深度协同。 芯片测试座、夹具、治具是芯片测试体系中不可或缺的三大核心器件,其中测试座是 “接触核心”,夹具是 “定位基础”,治具是 “功能延伸”。三者的协同配合,直接决定芯片测试的精度、效率与可靠性。
2.2 Intel至强6处理器平台Intel与合作伙伴神雲科技推出的基于至强6处理器的服务器平台,则代表了通用计算的高端配置。 该系列处理器采用Intel 3工艺的计算芯片单元与Intel 7工艺的I/O芯片单元,通过模块化SoC设计实现灵活扩展。 5.1 液冷散热技术浪潮信息推出了前瞻MW级泵驱两相液冷AI整机柜方案,采用高效相变散热技术,单芯片解热突破3000W,解热能力高达每平方厘米250W以上。 其本质是在现有技术、生态和成本约束下,从系统层面去打破AI芯片本身的性能边界,最大化用户价值。未来,我们将看到更大规模的算力集群出现。海外已经出现十万卡级别算力集群,未来或将进一步扩大。 9 结语服务器选型是一个复杂的系统工程,需要综合考虑性能需求、TCO(总拥有成本)及合规要求等多个维度:性能需求维度:根据业务负载类型(OLTP/OLAP/AI)匹配核心架构TCO维度:综合考量购置成本
从服务器到整机柜,戴尔液冷的全生态布局 本次大会上,为了让嘉宾更清楚的了解展区的应用场景,戴尔科技对所有展区进行的分类,于是就有了AI区、存储区、工作站区等多个区域。 具体规格方面,ChilledDoor系统具最高75kW机架冷却能力,符合Open19和OCP设计标准,可以兼容绝大多数机架设备。 这样一来,无论是全新采购还是老设备利旧,戴尔科技的液冷解决方案都可以让你的数据中心焕发生机。深耕FPGA,戴尔结下产业应用累累硕果 在看完了液冷解决方案之后,Tom又带我来到了AI与工作站的展区。 如今,AI是整个行业非常热门的概念,戴尔科技也针对AI应用推出了诸多解决方案。 可以预见的是,未来FPGA将会成为越来越重要的芯片,CPU+FPGA深度融合的异构计算更是成为了产业发展的必然选择。
机器之心报道 编辑:泽南 GPU、AI 芯片、通用化云算力软件,英特尔在创新峰会上告诉我们,它仍然是那家站在最前沿的科技公司。 本周二,英特尔推出了一款名为 Gaudi2 的 AI 芯片,这家公司正在大力进军英伟达主导的人工智能芯片市场。 相对于前代 AI 处理器 Greco 和 Goya,Gaudi2 的速度有了显著提升,其采用台积电 7 纳米制程,Tensor 处理器内核数量增加到 24 个,封装内存容量从 32GB(HBM2)增加至 「这是第一个也是唯一一个集成了如此大内存的 AI 加速器,」Habana Labs 的首席运营官 Eitan Medina 表示。该处理器的 TDP 为 600W,但仍然使用被动冷却,不需要液冷。 性能方面,以最高端的 i9-12900HX 为例,对比上代顶级 CPU i9-11980HK,新芯片单核性能提升 17%,多核性能提升 64%,3D 渲染性能增加了 81%,AutoDesk 专业创作性能提升了
液冷兴起的原因 从传统风冷向数据中心液冷的转变主要受人工智能和机器学习驱动。这些技术对计算能力提出了巨大需求,进而催生了对超高性能计算机芯片的需求。 芯片制造商竞相开发新型AI级芯片,但在现有技术条件下,这意味着更高的半导体封装密度和时钟频率,同时也带来了功耗和热管理的挑战。 AI级芯片的能耗和发热量显著增加。 但随着AI时代的到来,功率密度持续提升。据调查,17%的IT专业人员报告机架功率密度在20kW至50kW之间,部分甚至超过100kW。 面对如此高的功率密度,液冷正成为未来的解决方案。 机架级液冷方案 • 技术特点:采用冷却分配单元(CDU)实现机柜/整列冷却,保持设备原有架构 • 优势:兼容现有IT设备,支持50kW+功率密度 • 应用场景:托管数据中心、电信核心机房改造 冷板式或芯片级直接冷却 目前,直接液冷和浸没式冷却主要应用于HPC环境,如大型AI企业和部分加密货币矿场的数据中心。 随着硅处理器继续遵循摩尔定律发展,其能耗持续增加。今天的高性能标准很快将成为企业级的新常态。
随着人工智能进入“AI+”时代,大模型、具身智能等前沿技术飞速发展,算力已成为数字经济的核心生产力,同时国际地缘政治的复杂性给芯片供应链带来了巨大的不确定性,使得“国产替代”成为确保国家科技竞争力的必然选择 杨龚轶凡表示,“从我们今天实际测试的结果来说,中昊芯英即使晚于国际巨头一个制程,也能通过架构创新实现相近甚至更强的性能和更低的能耗。” 在谈及备受关注的液冷技术时,数据猿记者向杨龚轶凡提出了一个业内普遍关注的问题:当前液冷系统中使用的非导电液体成本高昂,甚至被形容为“比黄金还贵”。 杨龚轶凡回答道,随着新型氟化有机相变液体的应用,液冷系统的降温效率大幅提升,中昊芯英与国内领先液体厂商合作,已将整套液冷方案的构建成本降至与传统风冷机房相当。 面对模型规模化、具身智能兴起以及未来产业格局的多重变化,这既为中昊芯英这样的AI芯片新势力带来了前所未有的发展机遇,也带来了巨大的挑战。 从需求端看,大模型的规模正以惊人的速度向万亿参数迈进。
北京时间4月9日晚间,英特尔在美国召开了“Intel Vision 2024”大会,介绍了英特尔在AI领域取得的成功,并发布了新一代的云端AI芯片Gaudi 3及第六代至强(Xeon)可扩展处理器,进一步拓展了英特尔的 在边缘AI市场,英特尔已经发布了涵盖英特尔酷睿Ultra、英特尔酷睿、英特尔凌动处理器和英特尔锐炫显卡系列产品在内的全新边缘芯片,主要面向零售、工业制造和医疗等关键领域。 在面向云端的数据中心市场,英特尔在2022年就推出了AI加速芯片Gaudi 2,在去年年底还推出了集成了AI内核的代号为“Emerald Rapids”的面向数据中心的第五代 Xeon处理器。 但是,Gaudi 3具有 24 个 200GbE 接口,总带宽为 1.2 TBps。24 条链路中有 3 条专用于节点外通信,剩余 1 TBps 用于服务器内的芯片到芯片通信。 这样做有几个好处。 三季度交付 英特尔在 Vision 2024 上也公布了 Gaudi 3 生产节点,2024 年一季度将率先推出风冷版样品,二季度推出液冷版样品,并在今年第三、第四季度分别批量交付风冷版和液冷版。
报告数据显示,阿里云单相浸没式液冷方案PUE达1.09,机柜功耗密度提升至100千瓦以上。联想问天系列实现100%全覆盖冷板式液冷,PUE低至1.2以下,每年可为500kw数据中心节省电费90万元。 国内企业虽然在电机、减速器等硬件上有突破,但在AI决策算法、高精度传感器上仍有差距。我们认为,具身智能对算力的实际需求被高估,至少未来3年内不会成为算力消耗的主力。 智能网联汽车是实打实的算力黑洞。 华为海思的昇腾系列、寒武纪的思元系列、地平线的征程系列、海光信息的DCU、摩尔线程的夸娥、壁仞科技的通用GPU、还有天数智芯、沐曦、黑芝麻智能、燧原科技等,几乎涵盖了所有活跃的国产GPU/AI芯片厂商。 浪潮信息作为全球第二大服务器厂商,在AI服务器领域具有先发优势;新华三(紫光股份)和超聚变在电信和政企市场根基深厚;中科曙光的液冷服务器已经大规模部署;宁畅、华勤技术、中国长城、工业富联、联想等则在细分场景各有千秋 具身智能和机器人领域,特斯拉、Figure AI、波士顿动力这些国际先驱都在列,国内的小米、阿里巴巴、智元机器人、优必选、宇树科技、银河通用、千寻智能、傅利叶智能、星动纪元等新兴玩家也一个没有落下。
,显存带宽13TB/s,搭配第六代NVLink和CX9网卡。 提供液冷/风冷基础架构支持。 Quantum 3450-LD:144个800GB/s端口,背板带宽115TB/s,液冷Spectrum SN6810:128个800GB/s端口,背板带宽102.4TB/s,液冷Spectrum SN6800 模型效率PK DeepSeek软件生态发力AI Agent黄仁勋在现场描绘AI infra的“大饼”因为本次长达2个小时的GTC上,黄仁勋总共只讲大概半个小时软件和具身智能。 NVIDIA使用Blueprint的首批组件,在仅11小时内生成了78万个合成轨迹,相当于6,500小时(约9个月)的人类演示数据。
的主题分享,聚焦AI数据中心面临的功耗与散热瓶颈,详解了共封装光学(CPO)与液冷技术的协同解决方案,为AI基础设施规模化部署提供了切实可行的路径。 ① 液冷技术:千倍效率的散热革命 液冷技术的核心优势在于其远超风冷的散热效率——散热能力达到风冷的上千倍,能够精准应对高功耗芯片的散热需求。 当前主流ASIC单芯片功耗已达1500W,未来6000W级芯片的出现更让液冷成为必然选择。 Micas Networks基于生态成熟度与数据中心架构需求,将液冷技术延伸至以太网交换机及芯片本身,通过直接冷却核心发热部件,避免了发热中断对设备运行的影响。 随着AI算力需求的持续增长,芯片功耗将进一步提升,网络架构的密度与效率要求也将不断提高,CPO带来的低功耗、高带宽优势,与液冷技术的高效散热能力,将成为支撑AI基础设施规模化的核心支柱。
一、PCBA测试治具的原理PCBA测试治具的核心作用是对电路板实现快速、可靠、可重复的电气连接,配合测试设备或上位机软件对其进行功能性测试、ICT测试、FCT测试等。 工作流程: 治具通过弹簧针(Pogo Pin)接触 PCBA 指定测试点(测试Pad或接口)。 治具对DUT(Device Under Test)提供电源、电信号、通信协议等输入。 二、PCBA测试治具的分类类型简介应用ICT(In-Circuit Test)治具使用探针对PCB各测试点通断、电压、电流进行测试,检测元器件安装和电气连接正确性。批量生产阶段,适用于标准电路板。 多功能复合治具集成ICT + FCT + 烧录等功能,减少更换治具的时间。自动化产线,大批量生产场景。三、PCBA测试治具的设计要点1. 保护电路:增加TVS、光耦、隔离芯片保护上位机。 接口标准化:如USB、UART、CAN、SPI、I2C等常用通信接口应布局清晰。 3.
Vera Rubin NVL144则集成的了72颗Vera CPU+144颗 Rubin GPU,采用288GB显存的HBM4芯片,显存带宽13TB/s,搭配第六代NVLink和CX9网卡。 支持 CX9网卡,总带宽为 28.8 TB/s,是前代的 2 倍。 提供液冷/风冷基础架构支持。 Quantum 3450-LD:144个800GB/s端口,背板带宽115TB/s,液冷 Spectrum SN6810:128个800GB/s端口,背板带宽102.4TB/s,液冷 Spectrum 模型效率PK DeepSeek 软件生态发力AI Agent 黄仁勋在现场描绘AI infra的“大饼” 因为本次长达2个小时的GTC上,黄仁勋总共只讲大概半个小时软件和具身智能。
Lane光互联技术、标准演进与产业化落地,系统性披露从芯片到模块、从架构到散热的全链条技术突破,为下一代AI数据中心光互联生态构建奠定关键共识。 覆盖光芯片、光模块、设备厂商、云企业及测试机构,理事会单位包括中国电信、中国信息通信研究院(CAICT)、华为、美团、海信宽带等。 (代号Ironwood)进一步实现9216芯片/集群,支持1.77PB可直接寻址的共享HBM内存,创下共享内存多处理器新纪录,同时采用液冷与光可重构设计,成为当前最灵活的AI加速器。 八、AI集群缩放与散热:Ciena的448G生态与液冷技术 Ciena的Bilal Riaz提出AI集群的三大缩放策略:Scale-Up(提升单lane速率至448G,优化封装与连接器 未来,随着TFLN、CPO、液冷等技术的成熟,光互联将成为AI算力增长的核心支撑,为千亿参数模型训练、实时推理等场景提供高带宽、低功耗、高可靠的互联保障,开启下一代AI数据中心的全新发展阶段。
英伟达GTC 2024大会发布GB200芯片及配套架构,通过提升GPU互联带宽、采用高性能光模块和交换机,并部署液冷技术,推动AI计算效能与数据中心能效升级。--通信百科公众号注! 同时发布全球首批端到端800G吞吐量的InfiniBand和以太网交换机,以及采用液冷技术的服务器解决方案,全方位推动AI计算性能革新和数据中心能效提升。 经估算,在由256颗GH200构建的集群配置中,所需的800G光模块数量高达2304个,平均每颗芯片配备的光模块比例达到了空前的1:9。 据此推算得出,在GB200芯片与1.6T光模块之间,它们的理想使用比例同样是576:5184=1:9,即单个芯片数与光模块的比例为1:9。 为了让这些计算快速运行,英伟达将采用液冷的设计方案,冷却液输入/输出水温分别为 25℃/45℃。 除了英伟达,AI 服务器厂商超微电脑预计将在24Q2内扩产液冷机架。
8月1日,服务器芯片大厂Ampere 宣布将推出全新的 512 核 AmpereOne Aurora 处理器。这款新芯片具有定制的 Arm 内核和定制的网状网络和芯粒到芯粒互连。 而且在价格方面,风冷比液冷要更容易得多,因此 Ampere 非常关注电源效率,这也减轻了冷却负担。 此外,还有定制的AmpereAI IP提供专用的AI加速,并且其对高带宽内存(HBM)的支持,将有助于为新引擎提供足够的内存带宽。该芯片也适用于标准的通用工作负载。 与此同时,Ampere还公布了其AmpereOne M处理器的定价。这些芯片在台积电 5nm 工艺节点上制造,支持 12 个通道的 DDR5 内存和最高 192 个内核。 Ampere还提供了其 AmpereOne 架构的深入细节,并分享了更多性能声明和基准测试。 编辑:芯智讯-浪客剑
公司提出了“AI in ALL”战略布局,推出了很多AI相关的产品,主要有: AI数据中心用的以太网交换机:子公司新华三在业界首发 800G CPO硅光交换机,单芯片 51.2T 交换能力,支持 64 个 800G 端口,并融合 CPO 硅光技术、液冷散热设计、智能无损等先进技术,全面实现智算网络高吞吐、低时延、绿色节能三大需求,适用于 AIGC 集群或数据中心高性能核心交换等业务场景中。 AI存储:H3C UniStor Polaris X20000系列高性能智算存储,强悍性能、协议融合、可靠稳定,为AI智算提供坚实数据存储平台 AI数据中心液冷解决方案:新华三液冷解决方案从基础设施到统一运维 ,打通液冷全产业链,助推液冷标准化的进程,实现液冷技术全场景覆盖:·冷板式:通用计算、异构计算冷板机型全覆盖,适配不同场景化算力需求;·浸没式:极致PUE场景解决方案,帮助用户实现数据中心PUE小于1.1 不过,紫光股份(000938.SZ)也开始有所动作,新华三自主研发的高端可编程网络处理器芯片智擎660启动量产,搭载智擎660芯片的产品——CR16000-M智擎云业务路由器上市。
2024年底马斯克旗下xAI公司位于田纳西州孟菲斯市的Colossus超级智算集群(目前全球最大的单体全液冷数据中心)仅用时214天便顺利投产,其中首期10万H100芯片部署仅耗时122天,二期扩容更是压缩至 CPU托盘:服务器采用双路x86架构,兼容Intel Xeon(最高350W TDP)或AMD EPYC(最高400W TDP)处理器。 每个服务器配备了四个可支持热插拔冗余电源 液冷设计:直接芯片液冷 (D2C) (覆盖GPU, CPU, PCIe交换芯片),尤其是主板集成了通常位于独立子板上的Broadcom PCIe Gen5交换芯片和创新性的加入定制液冷模块 网络:每个服务器配备9个400GbE网络连接(8个AI网络专用NVIDIA BlueField-3 SuperNIC+1个通用CPU专用的Mellanox ConnectX-7网卡),总带宽达到3.6Tbps 4.1 全面液冷:从芯片到机柜的散热革命 芯片级直接液冷(D2C):Colossus的核心散热方案是由Supermicro设计和集成的端到端直接液冷(Direct-to-Chip)系统 ——定制化的冷板