首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏亿源通科技HYC

    液冷技术:迎接AIGC时代数据中心散热挑战

    根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。 液冷技术不仅能够有效降低数据中心的能耗,还能够提高服务器的运行效率,延长设备的使用寿命。因此,液冷技术正逐步成为数据中心散热解决方案的首选。 从2023年6月起数据中心PUE不高于1.4,2025年起数据中心PUE不高于1.3。 根据CDCC与浪潮信息,风冷方案数据中心PUE一般在1.4-1.5左右,而液冷数据中心PUE可降低至1.2以下,采用更加节能、效率较高的液冷散热技术是大势所趋。 短期内,冷板式液冷因技术成熟、与现有系统兼容性好、维护方便和改造成本较低,非常适合AI时代对散热的需求和数据中心从风冷向液冷的过渡阶段。

    2.3K10编辑于 2024-08-15
  • 来自专栏HyperAI超神经

    数据中心散热难?看谷歌和 DeepMind 如何用 AI 搞定它

    By 超神经 场景描述:谷歌和 DeepMind 合作,使用机器学习的方法,优化数据中心的能耗问题,成功的实现了数据中心自动化散热管理。 关键词:机器学习 数据中心 散热控制 随着互联网技术的发展,人们对计算能力需求的增加,大型的数据中心也越来越多。但这也对环境和能源带来了一丝威胁。 不散热就烧钱 数据中心大部分的额外能耗来自于降温冷却。而如何进行有效的散热管理一直是企业头疼的问题。 就像笔记本运行时需要散热一样,谷歌的数据中心为谷歌搜索, Gmail ,YouTube 等热门应用提供服务器,必须及时的将巨大的发热量处理掉,以保证它们正常的运行。 ? 数据中心散热系统 然而,常规使用的降温方法,在数据中心这样的动态环境中却很难发挥功效,主要的阻力来自于以下几个方面: 工程师如何操作设备,以及把握环境对设备产生的复杂影响。

    1.4K20发布于 2019-11-29
  • 来自专栏仿真CAE与AI

    为什么电子产品几乎都需要散热?如何做散热仿真

    然而,随着技术的进步,电子产品的性能也在不断提升,这导致了设备的功耗不断增加,从而引发了散热问题。散热,简单来说,就是将电子设备运行所产生的热量散发出去。 因此,散热问题是限制电子产品性能提升的关键因素之一。为了解决这个问题,设计师正在不断探索新的散热技术。其中,基于XFlow的理论模拟和实验研究正在成为新的研究热点。 XFlow是一种计算流体动力学(CFD)的模拟工具,可以模拟电子设备运行时的散热情况,帮助设计师更好地理解电子设备的散热机制,从而优化散热设计。 通过XFlow,设计师可以模拟出电子设备的散热情况,包括流体的速度、温度和压力等参数。这使得设计师可以在实际制造之前,对散热方案进行充分的验证和优化,从而节省时间和资源。 在XFlow的帮助下,设计师可以更好地理解电子设备的散热机制,从而优化散热设计。随着技术的发展,我们期待在不久的将来,更高效、更环保的散热技术将出现在我们的生活中,为我们的生活带来更多的便利。

    37910编辑于 2025-02-27
  • 来自专栏用户8925857的专栏

    PCB散热的10种方法!

    因此,对电路板进行很好的散热处理是非常重要的。PCB电路板的散热是一个非常重要的环节,那么PCB电路板散热技巧是怎样的。高拓电子来告诉大家。 这些基材虽然具有优良的电气性能和加工性能,但散热性差,作为高发热元件的散热途径,几乎不能指望由PCB本身树脂传导热量,而是从元件的表面向周围空气中散热。 元器件间距建议:2.高发热器件加散热器、导热板当PCB中有少数器件发热量较大时(少于3个)时,可在发热器件上加散热器或导热管,当温度还不能降下来时,可采用带风扇的散热器,以增强散热效果。 将散热罩整体扣在元件面上,与每个元件接触而散热。但由于元器件装焊时高低一致性差,散热效果并不好。通常在元器件面上加柔软的热相变导热垫来改善散热效果。 6.在水平方向上,大功率器件尽量靠近印制板边沿布置,以便缩短传热路径;在垂直方向上,大功率器件尽量靠近印制板上方布置,以便减少这些器件工作时对其他器件温度的影响。

    85450编辑于 2022-07-29
  • 笔记本散热系统各显神通,英特尔专利散热黑科技改写行业规则

    向外“吹热风”变成向内“灌凉风” 英特尔的Esther Island黑科技,是将风扇的“散热风向”由向外“吹热风”调整为向内“灌凉风”。 风向的改变,让机身内部从“负压”变成“正压”,并通过良好的内部密封,直接让机身内的温度下降,使散热更高效,并释放更高性能,提高了系统的功耗天花板。 在黑科技加持下,机身的散热点也得到了优化。 优化系统架构,完善接口排布 除了散热降温,这项黑科技还能够优化系统架构,平衡系统设计,改善主板布局,完善接口排布,节省散热材料,降低整机成本和重量。 在采用了此项散热黑科技的某款笔记本产品上,实现了“一升四降”的效果。 5美金的成本支出;在重量上,散热模块可减少大约15%的重量;另外,在噪音上也得到显著下降。

    16710编辑于 2026-03-19
  • 来自专栏Czy‘s Blog

    斐讯K3C改散热

    斐讯K3C改散热 斐讯K3C日常使用还是不错的,就是日常的温度还是比较高的,不过冬天用来当暖手宝还是不错的。 ? 这个改散热的方法是跟贴吧老哥学的,不得不说贴吧老哥还是牛皮,原贴在这,我当时拍的照片不够,有些地方还得借用贴吧老哥的图。 首先买好3cm的小风扇还有调速器,再加一跟USB线。 ? 打开风扇之后散热效果还是比较明显的,不过也是有一些噪音的,大概30%的转速下能降温十多度。 ? 风道偷一下贴吧老哥的图。 ?

    1.5K10发布于 2020-12-01
  • 来自专栏腾讯数据中心

    SuperNAP数据中心揭秘——中

    image.png 前面介绍了switch通信数据中心的总体设计思路,下面再介绍其数据中心内核心的IT微模块,根据图6所示的IT微模块示意及相关专利介绍称,其每个微模块由18个机柜构成,两侧不同供电路有两个列头柜和一个综合配线柜 图6 SuperNAP 数据中心的微模块 switch通信在微模块的结构件方面也煞费苦心,即便是机柜顶部封闭通道的建设,也采用了工厂预制的模块化标准组件400、转角组件450、标识为500的线槽支撑件以及标识为 图11 SuperNAP数据中心散热风管及热吊顶设计 switch通信采用的模块化AHU、冷风送风管、热通道封闭及吊顶等这些技术来进行散热,在冷却效能方面有着突出的表现,能够有效降低后期运营成本。 ,克服了传统数据中心的不足,有着优异的散热效率。 同样的,在室外侧switch通信则定制了其模块化AHU散热系统,采用的6种运行模式能满足各种季节和不同负载的散热需求。 图15所示的模块化AHU下部的冷凝器等设计成可以通过卡车等运输到数据中心现场。

    1.7K51发布于 2018-03-16
  • 半导体芯片散热新突破:激光冷却技术详解

    初创公司计划通过将热量转化为光来冷却数据中心。现代高性能芯片是工程奇迹,包含数百亿个晶体管。问题是,你不能同时使用所有晶体管。

    20210编辑于 2025-12-23
  • 来自专栏雨落凋殇

    树莓派控制散热风扇的开和关

    前言   平时在使用树莓派的时候都是接上5V的散热风扇,风扇接上就开始工作,刚开始的时候还不觉得,但是时间长了风扇的声音特别的大。作为强迫症的博主来说,简直难以忍受。

    5.7K21发布于 2019-12-25
  • “太空数据中心”真的靠谱吗?

    ,并且可利用太空低温环境来解决数据中心关键的散热问题。 4、或可大幅减少当前的散热部件 太空背光面接近绝对零度(低至-270°C),因此在太空中部署数据中心,无需像地面数据中心那样同样需要大量能源驱动的水冷/风冷散热系统,或可降低冷却成本。 辐射散热板的面积必须足够大,因为辐射散热效率相对较低。一个大功率数据中心可能需要像足球场那么大的辐射板。 6、通信限制 在通信方面,数据中心对于数据的吞吐量非常的高,虽然星间链路技术的引入,可以解决卫星之间的通信,但是最终数据是需要为地面服务,而当前的地空通信带宽有限(星链单星带宽约20Gbps,远低于海底光纤的 太空数据中心的优势是颠覆性的:近乎无限的太阳能、天然的极低温散热环境、庞大的轨道空间资源,以及构建全球无缝低延迟网络的潜力。这些优势直击地面数据中心面临的能源、土地、散热和网络覆盖的核心痛点。

    33510编辑于 2026-03-19
  • 来自专栏云深知网络 可编程P4君

    液冷交换机探索之路

    散热系统作为同时影响性能和能耗的关键因素成为数据中心改革的重点,而液冷技术由于其独特优势,正逐步取代传统风冷成为主流散热方案。 图1 PUE用来评价数据中心能源效率 由数据中心的平均能耗组成(图2),我们发现在数据中心能耗占比中,散热系统能耗平均高达33%,接近数据中心总能耗的三分之一,这是因为传统数据中心采用的风冷散热系统是以比热容很低的空气作为载冷媒介 未来5-10年,数据中心风冷散热会逐渐被液冷替代也成为业内共识。 相较而言,单相液冷复杂度更低更易实现,且散热能力足够支撑数据中心IT设备,是当前阶段的平衡之选。 图3 数据中心IT设备主要散热方式 单相液冷分为冷板式液冷和浸没式液冷。 图6 交换机结构进化 对此,锐捷采用了冷板式液冷散热器,对MAC芯片和周围的光模块进行一体化覆盖,通过冷却液在板内流道的流动带走热量。

    2.1K30编辑于 2023-03-06
  • 来自专栏云技术+云运维

    如何降低数据中心机柜的局部高热

    6.机柜孔密度与设备风量的匹配造成机柜内温度升高。 6.风量供给与设备需求的匹配程度,该指标从微观上讲应保证机柜不出现因风量不足而引起局部过热,宏观上讲区域总供风量应控制在需求总量的 90% - 110%之间。 7.通过加装散热单元,增加风的流速和流量; 通过对局部环境的改善、提升,数据中心的局部热点现象已明显减少,但由于自身排风不畅导致的局部热点现象仍然存在,还需要进一步的探索。 通过加装散热风机,增加风的流速和流量,解决机柜内部的局部过热问题。 为了进一步降低和消除数据中心机房的局部热点,完善机房管理,我们采取了以下措施:1、统计数据中心所有机柜局部热点的存在情况。2、针对局部热点机柜存在的排风不畅缺陷,进行加装散热风机。

    1.5K20发布于 2019-10-29
  • 来自专栏鲜枣课堂

    数据中心的黑科技——到底什么是NPOCPO?

    所以,捣鼓数据中心的节能减排,思路就在两点: 1、减少主设备的功耗 2、减少散热和照明方面的功耗(主要是散热) █ 主设备的功耗挑战 说起主设备,大家马上就想到了服务器。 具体来说,SerDes速率达到224G时,最多只能支持5~6英寸的传输距离。 这意味着,在SerDes没有技术突破的前提下,网络交换芯片和光模块之间的距离,必须缩短。 即便是现在国家对PUE提出了严格要求,按照三级能效(PUE=1.5,数据中心的限定值)来算,散热也占了将近40%。 传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。 液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近90%的散热能耗。数据中心整体能耗,则可下降近36%。 这个节能效果,可以说是非常给力了,直接省电三分之一。 锐捷网络在2019年开始关注硅光领域技术,2020年6月正式成立研发及产品团队。作为OIF/COBO的成员,他们一直都有参与工作组全球会议,参加相关标准的讨论和制定。

    2.8K10编辑于 2022-12-30
  • 来自专栏IT创事记

    散热与可靠性兼得的极限挑战:我知道风,是在哪一个方向吹

    当然,散热和可靠性并非零和博弈,只要管控好变量,就有机会走出囚徒困境。 悬在头上的达摩克利斯剑 在千行百业数字化转型的大时代,数据中心既是驱动增长的重要引擎,也是不容忽视的“耗电怪兽”。 数据中心为了降低PUE,必须让能源更多向IT设备倾斜,这对服务器的供电和散热研发设计提出了更高要求。供电效率提升可降低CPU等关键部件散热量,从而减少空调等设备的使用。 液冷是散热技术的翘楚,用液体取代空气作为冷媒,带走部件热量,常见的方式有冷板、浸没、风液混合等。目前,部分液冷服务器已在云数据中心和边缘数据中心规模化部署,对降低PUE效果显著。 但液冷技术对数据中心的机房环境要求苛刻,重新改造的成本也较高,浸没式液冷的冷却液价格更是堪比茅台。 对大多数数据中心来说,风冷才是低成本改善散热的主流方案,最“简单粗暴”的做法是提高服务器风扇转速。 相关数据显示,配置波导网的浪潮信息M6服务器散热效率大幅提升17%~22%,可让数据中心环温提升1.5~2摄氏度,节约6%~8%的能耗。

    53910编辑于 2022-08-30
  • 来自专栏腾讯数据中心

    Google水冷服务器,制冷革命正当时

    Google首次开放了其位于美国和欧洲地区的数据中心后,媒体公布了一批其数据中心的照片。照片里谷歌数据中心内成千上万台服务器严阵以待,线缆以及冷却管道色彩各异,阡陌交通。 谷歌也曾意味深长地说“我们的同事看了未来的架构,都很后悔现在的系统”,毫无疑问,谷歌的新一代数据中心架构即将粉墨登场。 图3 谷歌水冷服务器的俯视图 谷歌水冷服务器主板上有6 个CPU 及芯片组,中间横向虚线部分为多根内存阵列,以及冷通道侧的网络控制器和网络RJ45接口等。 图6 水冷服务器机房截面图 如图6,整个机房环境是个大的冷通道,是工作人员操作空间,兼作服务器的进风侧(实际图6 右侧机柜的右边也有类似冷通道用于服务器的进风)两排机柜间的通道作为热通道,用于汇集两侧所有服务器发出的热量 版权声明:本文为腾讯数据中心原创,欢迎转载,转载需标明出处。版权均属“深圳市腾讯计算机系统有限公司”所有,未经官方授权,不得使用。

    2.9K60发布于 2018-03-16
  • 来自专栏为了不折腾而去折腾的那些事

    硬件笔记:能快速更换的散热耗材,固态硅脂

    写在前面 包括服务器机房在内,散热是一个绕不开的话题。 设备散热(维护)改造过程 设备的散热改造(维护)过程,还是比较简单的。 第一步:拆后盖 第一步,拆机 机器连续运行了两年后,灰尘其实还好,没有太多。 第二步:拆散热 第二步,拆散热 我手里的设备固定散热设备,分为左侧风扇处三个螺丝,和右侧 CPU 扣具的标准四颗螺丝。 第三步:清理老硅脂 第三步,拆散热 拆下散热后,我们在 CPU 外壳和散热片上会看到之前帮助设备散热的老硅脂。 撕开硅脂贴片的薄膜纸,然后贴到散热器铜片上,等待几分钟,硅脂和金属贴合多一些,撕掉最后的薄膜纸,将散热器组装回设备即可。

    94510编辑于 2023-09-04
  • 来自专栏Alter聊科技

    数据中心的能耗焦虑, 到底有没有最优解?

    根据开源证券研究所的统计结果,一个数据中心的能耗分布中,散热系统的占比高达40%。也就是说,数据中心每耗费一度电,只有一半用在了“计算”上,其他的则浪费在了散热、照明等方面。 计算和散热几乎陷入了一场零和博弈,计算量越大散热消耗的电量越大,如果不消耗足够的能源提高散热能力,将直接影响数据中心的性能、密度和可靠性。 传统的散热方案以风冷为主,即将空气作为冷媒,把服务器主板、CPU等散发出的热量传递给散热器模块,再利用风扇或空调制冷等方式将热量吹走,也是散热系统消耗数据中心近半电力的主要诱因。 有机构曾经估算,即使是在现有的散热方案下,即使按照工业平均电价每千瓦时0.5元来计算,数据中心所在地的气温每降低1℃,10万台服务器的标准数据中心机房每天可节约9.6万元的电费。 可对已有的数据中心运营者来说,绿色计算是一件等不得的事,存量的数据中心也需要提高散热能力,找到性能和散热间的新平衡;对于一些追求“性价比”的客户,降低PUE的渠道不应只有液冷散热一种,而是适合自己的产品和方案

    76730编辑于 2023-01-13
  • 来自专栏用户7421296的专栏

    IT项目6数据中心部署DSS提供文件和块存储服务

    目的是提高单个硬盘,性能和可靠性) RAID Level:0,1,5,10 RAID0:提升性能 RAID1:提升可靠性 (2)Web GUI操作: Setup/Software RAID/MD0 第6步 存储资源回收 第1步:Windows卸载iSCSI卷 第2步:Windows卸载NAS卷 第3步:DSS删除NAS卷(LV) 第4步:DSS删除iSCSI卷(LV) 第5步:DSS删除卷组(VG) 第6

    1.4K80编辑于 2023-06-07
  • SFP笼子选型指南:SFP连接器产品参数详解

    我们覆盖SFP、SFP+、SFP28等全系列SFP连接器及笼子产品,满足数据中心、5G通信、企业网络等场景的严苛需求。 以下为我们产品线速览:系列速率产品形态端口数特点SFP系列5GCage / Cage+Connector1×1, 1×2, 1×4, 2×1, 2×2, 2×4, 2×5, 2×6, 2×8百兆/千兆以太网 ,兼容1G光模块SFP+系列10GCage / Cage+Connector1×1, 1×2, 1×4, 1×6, 2×1, 2×2, 2×4, 2×5, 2×6, 2×810G光纤通道,10G以太网, 支持散热片SFP28系列25GCage / Cage+Connector1×1, 1×2, 1×4, 1×6, 2×1, 2×2, 2×4, 2×6, 2×8, 2×1225G以太网,适用于数据中心TOR 散热设计散热孔:标准通风孔,依靠空气对流散热散热片:集成散热片,增强散热能力,适用于高功率模块。散热片+散热孔组合:满足更高散热需求。

    4500编辑于 2026-03-24
  • 来自专栏腾讯数据中心

    寻沧海明珠——谷歌海上数据中心

    三、google 海上数据中心散热篇 ? 图3 海上数据中心的侧视图 海水温度较低的地方,可以通过抽取海表面底下一定深度的低温海水给集装箱数据中心提供冷量。 比如其集装箱数据中心技术的更多灵活应用,比如利用海水或者油给数据中心散热,比如风能、太能能、波浪能发电等,奠定了其行业领先的重要基础。Google 在那个会议上也指出了油轮数据中心的一些好处: ? 图6 油轮数据中心的好处介绍 1、造船行业进入低谷,大型油轮的造价成本可以到较低的价格; 2、停靠在港口附近,基本不需要多少买地建楼等费用,停靠费用也非常低,此外码头通常都有充足的电力提供给油轮数据中心 采用油轮的数据中心,甚至还可以直接采用油轮上的油来散热,比如: 1、通常油类有比海水有更为优良的传热能力; 2、采用油来散热技术非常成熟,应用在油浸式变压器散热等都有几十年的案例和经验了; 3、油和电子产品基本不会发生反应 ,无腐蚀性,且油品稳定性和可靠性较高; 4、油类通常是电的绝缘体,不会导致短路故障等,业界如 intel 公司等都已经开始采用服务器直接浸没在矿物油中来散热,因此在油轮数据中心中也可以采用类似原理用油来给数据中心散热

    1.6K50发布于 2018-03-16
领券