根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。 液冷技术不仅能够有效降低数据中心的能耗,还能够提高服务器的运行效率,延长设备的使用寿命。因此,液冷技术正逐步成为数据中心散热解决方案的首选。 根据CDCC与浪潮信息,风冷方案数据中心PUE一般在1.4-1.5左右,而液冷数据中心PUE可降低至1.2以下,采用更加节能、效率较高的液冷散热技术是大势所趋。 液冷技术通过更高效的散热方式,减少了空调系统的能耗,从而显著降低了数据中心的PUE值。这不仅有助于降低运营成本,还能够减少碳排放,符合可持续发展的要求。 短期内,冷板式液冷因技术成熟、与现有系统兼容性好、维护方便和改造成本较低,非常适合AI时代对散热的需求和数据中心从风冷向液冷的过渡阶段。
By 超神经 场景描述:谷歌和 DeepMind 合作,使用机器学习的方法,优化数据中心的能耗问题,成功的实现了数据中心自动化散热管理。 关键词:机器学习 数据中心 散热控制 随着互联网技术的发展,人们对计算能力需求的增加,大型的数据中心也越来越多。但这也对环境和能源带来了一丝威胁。 不散热就烧钱 数据中心大部分的额外能耗来自于降温冷却。而如何进行有效的散热管理一直是企业头疼的问题。 就像笔记本运行时需要散热一样,谷歌的数据中心为谷歌搜索, Gmail ,YouTube 等热门应用提供服务器,必须及时的将巨大的发热量处理掉,以保证它们正常的运行。 ? 数据中心的散热系统 然而,常规使用的降温方法,在数据中心这样的动态环境中却很难发挥功效,主要的阻力来自于以下几个方面: 工程师如何操作设备,以及把握环境对设备产生的复杂影响。
然而,随着技术的进步,电子产品的性能也在不断提升,这导致了设备的功耗不断增加,从而引发了散热问题。散热,简单来说,就是将电子设备运行所产生的热量散发出去。 因此,散热问题是限制电子产品性能提升的关键因素之一。为了解决这个问题,设计师正在不断探索新的散热技术。其中,基于XFlow的理论模拟和实验研究正在成为新的研究热点。 XFlow是一种计算流体动力学(CFD)的模拟工具,可以模拟电子设备运行时的散热情况,帮助设计师更好地理解电子设备的散热机制,从而优化散热设计。 通过XFlow,设计师可以模拟出电子设备的散热情况,包括流体的速度、温度和压力等参数。这使得设计师可以在实际制造之前,对散热方案进行充分的验证和优化,从而节省时间和资源。 在XFlow的帮助下,设计师可以更好地理解电子设备的散热机制,从而优化散热设计。随着技术的发展,我们期待在不久的将来,更高效、更环保的散热技术将出现在我们的生活中,为我们的生活带来更多的便利。
因此,对电路板进行很好的散热处理是非常重要的。PCB电路板的散热是一个非常重要的环节,那么PCB电路板散热技巧是怎样的。高拓电子来告诉大家。 这些基材虽然具有优良的电气性能和加工性能,但散热性差,作为高发热元件的散热途径,几乎不能指望由PCB本身树脂传导热量,而是从元件的表面向周围空气中散热。 元器件间距建议:2.高发热器件加散热器、导热板当PCB中有少数器件发热量较大时(少于3个)时,可在发热器件上加散热器或导热管,当温度还不能降下来时,可采用带风扇的散热器,以增强散热效果。 当发热器件量较多时(多于3个),可采用大的散热罩(板),它是按PCB板上发热器件的位置和高低而定制的专用散热器或是在一个大的平板散热器上抠出不同的元件高低位置。 将散热罩整体扣在元件面上,与每个元件接触而散热。但由于元器件装焊时高低一致性差,散热效果并不好。通常在元器件面上加柔软的热相变导热垫来改善散热效果。
向外“吹热风”变成向内“灌凉风” 英特尔的Esther Island黑科技,是将风扇的“散热风向”由向外“吹热风”调整为向内“灌凉风”。 风向的改变,让机身内部从“负压”变成“正压”,并通过良好的内部密封,直接让机身内的温度下降,使散热更高效,并释放更高性能,提高了系统的功耗天花板。 在黑科技加持下,机身的散热点也得到了优化。 优化系统架构,完善接口排布 除了散热降温,这项黑科技还能够优化系统架构,平衡系统设计,改善主板布局,完善接口排布,节省散热材料,降低整机成本和重量。 在采用了此项散热黑科技的某款笔记本产品上,实现了“一升四降”的效果。 5美金的成本支出;在重量上,散热模块可减少大约15%的重量;另外,在噪音上也得到显著下降。
斐讯K3C改散热 斐讯K3C日常使用还是不错的,就是日常的温度还是比较高的,不过冬天用来当暖手宝还是不错的。 ? 这个改散热的方法是跟贴吧老哥学的,不得不说贴吧老哥还是牛皮,原贴在这,我当时拍的照片不够,有些地方还得借用贴吧老哥的图。 首先买好3cm的小风扇还有调速器,再加一跟USB线。 ? 打开风扇之后散热效果还是比较明显的,不过也是有一些噪音的,大概30%的转速下能降温十多度。 ? 风道偷一下贴吧老哥的图。 ?
图11是室内侧switch通信专利的热通道封闭方案,及两侧送风风管的示意图。 ? 图11 SuperNAP数据中心的散热风管及热吊顶设计 switch通信采用的模块化AHU、冷风送风管、热通道封闭及吊顶等这些技术来进行散热,在冷却效能方面有着突出的表现,能够有效降低后期运营成本。 ,克服了传统数据中心的不足,有着优异的散热效率。 同样的,在室外侧switch通信则定制了其模块化AHU散热系统,采用的6种运行模式能满足各种季节和不同负载的散热需求。 图15所示的模块化AHU下部的冷凝器等设计成可以通过卡车等运输到数据中心现场。 图15 SuperNAP数据中心的模块化AHU散热模块 图16和图17AHU内部的详细结构示意,下面对典型的几种不同制冷模式做简要说明。
2025年11月19日,重庆——在英特尔技术创新与产业生态大会上,英特尔携手本地生态伙伴——新华三、英维克、忆联及国内领先内存厂商,发布了基于英特尔® 至强® 6900系列性能核处理器的双路冷板式全域液冷服务器 该创新方案由全本地生态赋能,实现了关键热源的高比例液冷覆盖,在提升可靠性与能效的同时,显著降低能耗与运维成本,为数据中心散热与能效树立全新标杆。 英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立表示:“AI驱动着高效散热和先进液冷技术的演进。 从CPU、内存,再到硬盘,这款双路冷板式全域液冷服务器在多个维度上全面保障着数据中心的散热效率与长期稳定。这首先得益于英特尔在CPU与液冷技术上的协同推进。 前者创造性地将内存散热片和冷板进行可拆装设计,不仅具有运维方便、兼容性好、易于迭代和可标准化等优势,更是突破传统内存散热上限,在0.297英寸间距下满足DDR5内存最高功耗36W的散热需求。
的主题分享,聚焦AI数据中心面临的功耗与散热瓶颈,详解了共封装光学(CPO)与液冷技术的协同解决方案,为AI基础设施规模化部署提供了切实可行的路径。 ◆ AI数据中心的核心困境:功耗与散热的双重壁垒 随着AI技术的爆发式发展,数据中心的功耗需求正呈指数级增长。 ① 液冷技术:千倍效率的散热革命 液冷技术的核心优势在于其远超风冷的散热效率——散热能力达到风冷的上千倍,能够精准应对高功耗芯片的散热需求。 即使在现有数据中心基础上新增服务器,也能有效控制对供电与散热系统的额外需求,避免触发HVAC阈值,实现“无惊喜”的平滑扩容。 在测试环节,双方建立了L11节点级与L12集群级的双重测试标准。
散热系统作为同时影响性能和能耗的关键因素成为数据中心改革的重点,而液冷技术由于其独特优势,正逐步取代传统风冷成为主流散热方案。 图1 PUE用来评价数据中心能源效率 由数据中心的平均能耗组成(图2),我们发现在数据中心能耗占比中,散热系统能耗平均高达33%,接近数据中心总能耗的三分之一,这是因为传统数据中心采用的风冷散热系统是以比热容很低的空气作为载冷媒介 未来5-10年,数据中心风冷散热会逐渐被液冷替代也成为业内共识。 相较而言,单相液冷复杂度更低更易实现,且散热能力足够支撑数据中心IT设备,是当前阶段的平衡之选。 图3 数据中心IT设备主要散热方式 单相液冷分为冷板式液冷和浸没式液冷。 图7 32*100G 浸没式液冷数据中心接入交换机 图8 48*1G+4*10G 浸没式液冷管理网交换机 在2021年11月全球OCP峰会,锐捷网络正式发布64*400G冷板式液冷NPO交换机,满足数据中心和运营商网络的高可靠性要求
初创公司计划通过将热量转化为光来冷却数据中心。现代高性能芯片是工程奇迹,包含数百亿个晶体管。问题是,你不能同时使用所有晶体管。
前言 平时在使用树莓派的时候都是接上5V的散热风扇,风扇接上就开始工作,刚开始的时候还不觉得,但是时间长了风扇的声音特别的大。作为强迫症的博主来说,简直难以忍受。
,并且可利用太空低温环境来解决数据中心关键的散热问题。 据介绍,据介绍,首批H100 GPU 已预定于2025年11月随卫星升空,开启真正意义上的“太空AI”时代。但目前并未有进一步的信息。 埃隆·马斯克于2025年11月初在“X”平台上公开表示,SpaceX计划通过扩大其未来的Starlink V3卫星在太空中部署数据中心,这些卫星具有高速激光链路。 4、或可大幅减少当前的散热部件 太空背光面接近绝对零度(低至-270°C),因此在太空中部署数据中心,无需像地面数据中心那样同样需要大量能源驱动的水冷/风冷散热系统,或可降低冷却成本。 辐射散热板的面积必须足够大,因为辐射散热效率相对较低。一个大功率数据中心可能需要像足球场那么大的辐射板。
“太空AI数据中心”。 据介绍,首批H100 GPU 预定将于2025年11月随卫星升空,开启真正意义上的“太空AI”时代。 然而,这也会面临着不小的挑战,比如太空中没有空气,无法对其进行对流散热。 对此, Starcloud 与英伟达联手开发了新型冷却架构,利用深空真空作为“无限热沉(infinite heat sink)”,将GPU 的热量直接辐射至宇宙中,实现独特的“真空散热”。 根据目前规划,Starcloud 将于2025年11月首次将NVIDIA H100 GPU 送上太空;Crusoe 旗下的Crusoe Cloud 则预定在2026 年底部将其署于Starcloud 的卫星平台上
数据中心为了降低PUE,必须让能源更多向IT设备倾斜,这对服务器的供电和散热研发设计提出了更高要求。供电效率提升可降低CPU等关键部件散热量,从而减少空调等设备的使用。 液冷是散热技术的翘楚,用液体取代空气作为冷媒,带走部件热量,常见的方式有冷板、浸没、风液混合等。目前,部分液冷服务器已在云数据中心和边缘数据中心规模化部署,对降低PUE效果显著。 但液冷技术对数据中心的机房环境要求苛刻,重新改造的成本也较高,浸没式液冷的冷却液价格更是堪比茅台。 对大多数数据中心来说,风冷才是低成本改善散热的主流方案,最“简单粗暴”的做法是提高服务器风扇转速。 据《IT创事记》了解,浪潮信息研制的波导网内部为铝制六边形蜂巢状小孔,单边厚度不足0.2mm,重量仅11克左右,可谓“薄如蝉翼”。 相关数据显示,配置波导网的浪潮信息M6服务器散热效率大幅提升17%~22%,可让数据中心环温提升1.5~2摄氏度,节约6%~8%的能耗。
所以,捣鼓数据中心的节能减排,思路就在两点: 1、减少主设备的功耗 2、减少散热和照明方面的功耗(主要是散热) █ 主设备的功耗挑战 说起主设备,大家马上就想到了服务器。 事实上,相比对网络设备的功耗提升,散热的功耗才是真正的大头。 根据数据统计,交换设备在典型数据中心总能耗中的占比,仅仅只有4%左右,还不到服务器的1/10。 但是散热呢? 即便是现在国家对PUE提出了严格要求,按照三级能效(PUE=1.5,数据中心的限定值)来算,散热也占了将近40%。 传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。 液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近90%的散热能耗。数据中心整体能耗,则可下降近36%。 这个节能效果,可以说是非常给力了,直接省电三分之一。 2021年11月,国内设备厂商锐捷网络(Ruijie Networks),发布了全球第一款25.6T的NPO冷板式液冷交换机。
数据中心、超算平台基础设施可按照不同的冷却方法进行划分风冷数据中心基础设施和液冷数据中心基础设施。数据中心散热技术领域不断创新。目前,液冷技术以其稳定性高、散热效率高等优势逐渐显现出优势。 2021年11月,国家发改委表示,全国新建大型、超大型数据中心平均PUE降至1.3以下,全国枢纽节点进一步降至1.25以下。 2021年11月,国家发改委、网信办、工信部、能源局联合印发《贯彻落实碳达峰碳中和目标要求推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》指出坚持集约化、绿色化、智能化建设,加快节能低碳技术研发推广 风冷方式起步较早,技术相对成熟;液冷方式是近几年因数据中心散热需求提升而出现的一种新方式,技术尚处于发展阶段。 其中,冷板液冷是间接接触型液冷,将冷板固定在散热物体上,液体在冷板内流动传递设备的热量,实现散热。
互联港湾工作人员现场讲解 随着“互联网+”国民政策不断推动全产业链的IT架构变迁,云计算、大数据、物联网等产业日新月异,互联网数据中心作为战略性基础设施的重要性和不可替代性也日益凸显,同时 ,只有高安全、高可用、满足未来需求的数据中心才能真正顺应互联网时代的发展特点,找到自己的核心竞争力,实现对日益庞大的企业客户的高品质服务。 作为高等级数据中心的翘楚,互联港湾北京亦庄数据中心不仅在基础设施服务上具有优秀的服务能力,更具有强大的计算服务能力,满足互联网应用不断开拓出的市场需求。 数据中心位于北京经济技术开发区兴盛街15号,距离亦庄线荣京东街地铁站1.0km,距离京沪高速0.625km,交通便利,是一个超五星级数据中心。 互联港湾混合云和数据中心兄弟同心,就算外面寒冬凛冽,依然为您带来暖心、贴心、放心的“互联网+”版“双11”。
AT&T为其数据中心托管业务寻得了买家,以11亿美元的价格出售给了Brookfield Infrastructure。 协议中包括美国的18个互联网数据中心和13个国际数据中心,这些数据中心为全球1000多家公司提供服务。 Follow the Leader 分析师指出,此次数据中心出售遵循其他运营商最近的趋势,以退出竞争日益激烈且商品化的数据中心领域。 Entner表示:“在数据中心,问题的焦点都是规模经济。如果你规模最大,你将拥有最低的价格。一个价值1亿美元的数据中心业务规模还不够大。 电信公司退出数据中心业务 Verizon在2016年以36亿美元的价格向Equinix出售了24个数据中心,包括15个地铁区域的29个数据中心大楼,总面积约为240万平方英尺,它还包括大约900个客户
一方面,AI集群的功率密度持续飙升,从DGX A100到Rubin Ultra(NVL576),单机架功耗不断突破上限,传统依赖CRAC/CRAH机组与散热管道的空冷技术逐渐触及性能天花板;另一方面,数据中心需在提升计算能力的同时 ,从功耗控制与散热适配两个维度实现技术突破。 LPO技术通过移除DSP芯片,重构信号传输架构,实现了双重核心优势:功耗降低约50%, 时延显著减少,直接缓解了数据中心的功耗与散热压力;同时通过模块阻抗的设计与制造控制,以及与主机设备、ASIC主板的阻抗 可靠性测试同样表现优异:100G QSFP28 SR4 iAOC在70℃、90%置信水平下的平均无故障时间(MTBF)达到50年;11个100G浸没式有源光尾纤样品,在3.3V电压、1.5米液深条件下, 随着浸没式液冷与LPO技术的规模化部署,数据中心正从“被动散热”向“主动优化”转型,未来将实现性能、效率与环保的三重平衡,为AI与HPC技术的持续创新提供坚实基础。 完整报告如下: