首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏亿源通科技HYC

    液冷技术:迎接AIGC时代数据中心散热挑战

    根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。 液冷技术不仅能够有效降低数据中心的能耗,还能够提高服务器的运行效率,延长设备的使用寿命。因此,液冷技术正逐步成为数据中心散热解决方案的首选。 根据CDCC与浪潮信息,风冷方案数据中心PUE一般在1.4-1.5左右,而液冷数据中心PUE可降低至1.2以下,采用更加节能、效率较高的液冷散热技术是大势所趋。 液冷技术通过更高效的散热方式,减少了空调系统的能耗,从而显著降低了数据中心的PUE值。这不仅有助于降低运营成本,还能够减少碳排放,符合可持续发展的要求。 短期内,冷板式液冷因技术成熟、与现有系统兼容性好、维护方便和改造成本较低,非常适合AI时代对散热的需求和数据中心从风冷向液冷的过渡阶段。

    2.3K10编辑于 2024-08-15
  • 来自专栏HyperAI超神经

    数据中心散热难?看谷歌和 DeepMind 如何用 AI 搞定它

    By 超神经 场景描述:谷歌和 DeepMind 合作,使用机器学习的方法,优化数据中心的能耗问题,成功的实现了数据中心自动化散热管理。 关键词:机器学习 数据中心 散热控制 随着互联网技术的发展,人们对计算能力需求的增加,大型的数据中心也越来越多。但这也对环境和能源带来了一丝威胁。 不散热就烧钱 数据中心大部分的额外能耗来自于降温冷却。而如何进行有效的散热管理一直是企业头疼的问题。 就像笔记本运行时需要散热一样,谷歌的数据中心为谷歌搜索, Gmail ,YouTube 等热门应用提供服务器,必须及时的将巨大的发热量处理掉,以保证它们正常的运行。 ? 数据中心散热系统 然而,常规使用的降温方法,在数据中心这样的动态环境中却很难发挥功效,主要的阻力来自于以下几个方面: 工程师如何操作设备,以及把握环境对设备产生的复杂影响。

    1.4K20发布于 2019-11-29
  • 来自专栏技术杂记

    BGP数据中心鉴别方法4

    2.351 ms 2.300 ms 3.001 ms 3 112.64.252.85 (112.64.252.85) [AS17621] 3.238 ms 3.281 ms 3.155 ms 4

    57930编辑于 2022-04-25
  • 来自专栏仿真CAE与AI

    为什么电子产品几乎都需要散热?如何做散热仿真

    然而,随着技术的进步,电子产品的性能也在不断提升,这导致了设备的功耗不断增加,从而引发了散热问题。散热,简单来说,就是将电子设备运行所产生的热量散发出去。 因此,散热问题是限制电子产品性能提升的关键因素之一。为了解决这个问题,设计师正在不断探索新的散热技术。其中,基于XFlow的理论模拟和实验研究正在成为新的研究热点。 XFlow是一种计算流体动力学(CFD)的模拟工具,可以模拟电子设备运行时的散热情况,帮助设计师更好地理解电子设备的散热机制,从而优化散热设计。 通过XFlow,设计师可以模拟出电子设备的散热情况,包括流体的速度、温度和压力等参数。这使得设计师可以在实际制造之前,对散热方案进行充分的验证和优化,从而节省时间和资源。 在XFlow的帮助下,设计师可以更好地理解电子设备的散热机制,从而优化散热设计。随着技术的发展,我们期待在不久的将来,更高效、更环保的散热技术将出现在我们的生活中,为我们的生活带来更多的便利。

    37910编辑于 2025-02-27
  • 来自专栏用户8925857的专栏

    PCB散热的10种方法!

    因此,对电路板进行很好的散热处理是非常重要的。PCB电路板的散热是一个非常重要的环节,那么PCB电路板散热技巧是怎样的。高拓电子来告诉大家。 这些基材虽然具有优良的电气性能和加工性能,但散热性差,作为高发热元件的散热途径,几乎不能指望由PCB本身树脂传导热量,而是从元件的表面向周围空气中散热。 元器件间距建议:2.高发热器件加散热器、导热板当PCB中有少数器件发热量较大时(少于3个)时,可在发热器件上加散热器或导热管,当温度还不能降下来时,可采用带风扇的散热器,以增强散热效果。 将散热罩整体扣在元件面上,与每个元件接触而散热。但由于元器件装焊时高低一致性差,散热效果并不好。通常在元器件面上加柔软的热相变导热垫来改善散热效果。 4.采用合理的走线设计实现散热由于板材中的树脂导热性差,而铜箔线路和孔是热的良导体,因此提高铜箔剩余率和增加导热孔是散热的主要手段。

    85450编辑于 2022-07-29
  • 来自专栏亿源通科技HYC

    数据中心CWDM4传输技术是什么?

    数据中心光传输技术的演进 随着移动互联网的推广应用,数据中心得到迅猛发展,成为信息社会中的重要基础设施。 数据中心由大量服务器组成,服务器之间需要高速、大容量的数据传输和交换,传统的电缆传输不能满足速率要求,光纤传输技术自2010年左右进入数据中心,至今已经成为主流传输技术。 然而,数据中心的主流传输速率已进入100G时代,通常采用4×25G传输方案,单信道传输速率达到25G,多模光纤已经不能支持这么高的传输速率,单模光纤被引入100G传输系统。 数据中心100G光纤收发模块,目前的主流封装形式是QSFP28,模块中集成了4个半导体激光器、光探测器阵列及其驱动电路,以及无源的CWDM4组件。 将AWG技术引入数据中心的CWDM4传输系统,波长间隔增加至20nm,技术难点降低了,但为了集成到QSFP28模块中并规模应用,对AWG芯片的尺寸和成本约束要严苛得多,目前主流的CWDM4 AWG芯片,

    1.4K40发布于 2021-02-05
  • 来自专栏量子位

    拆解苹果M2 Pro笔记本,内存变成44GB,散热片还缩小了

    14寸M2 Pro笔记本对比14寸M1 Pro笔记本: 内存模块从M1 Pro的2个8GB变为现在的44GB,散热片还明显缩小了…… 慢着慢着,虽说苹果推出了自助维修服务,但M2 Pro笔记本的维修手册也还没出来呢 △图源:wccftech 首先最“有趣”的变化就是散热片的尺寸了,M2 Pro SoC上的散热片尺寸不但没有维持M1 Pro的,反而还减小了不少。 随后在继续拆解的过程中,比较明显的一个变化就是内存模块的变化: M2 Pro内核两侧各有两个SK Hynix4GB的LPDDR5内存模块,总共四个(和M2 Air中的一模一样); 而旧版的M1 Pro核用的是 同样的容量大小,至于为什么选择4个更小的RAM模块,而不是沿用旧版的两个大模块? 这在很大程度上要归结于供应问题上,当时苹果做出设计选择时,ABF衬底供不应求。 对于苹果来说,带来的结果就是RAM模块这边在被拆分,那边NAND模块却“背道而驰”: 从M1 Pro笔记本上的4个更小的128GB模块发展到M2 Pro上的两个更大的256GB模块。

    70820编辑于 2023-02-23
  • 笔记本散热系统各显神通,英特尔专利散热黑科技改写行业规则

    向外“吹热风”变成向内“灌凉风” 英特尔的Esther Island黑科技,是将风扇的“散热风向”由向外“吹热风”调整为向内“灌凉风”。 风向的改变,让机身内部从“负压”变成“正压”,并通过良好的内部密封,直接让机身内的温度下降,使散热更高效,并释放更高性能,提高了系统的功耗天花板。 在黑科技加持下,机身的散热点也得到了优化。 优化系统架构,完善接口排布 除了散热降温,这项黑科技还能够优化系统架构,平衡系统设计,改善主板布局,完善接口排布,节省散热材料,降低整机成本和重量。 在采用了此项散热黑科技的某款笔记本产品上,实现了“一升四降”的效果。 5美金的成本支出;在重量上,散热模块可减少大约15%的重量;另外,在噪音上也得到显著下降。

    16710编辑于 2026-03-19
  • 来自专栏Czy‘s Blog

    斐讯K3C改散热

    斐讯K3C改散热 斐讯K3C日常使用还是不错的,就是日常的温度还是比较高的,不过冬天用来当暖手宝还是不错的。 ? 这个改散热的方法是跟贴吧老哥学的,不得不说贴吧老哥还是牛皮,原贴在这,我当时拍的照片不够,有些地方还得借用贴吧老哥的图。 首先买好3cm的小风扇还有调速器,再加一跟USB线。 ? 打开风扇之后散热效果还是比较明显的,不过也是有一些噪音的,大概30%的转速下能降温十多度。 ? 风道偷一下贴吧老哥的图。 ?

    1.5K10发布于 2020-12-01
  • 来自专栏SDNLAB

    【连载-4数据中心网络虚拟化 配置管理技术

    4)Mutate操作:与update相似,但区别是update用请求中指定的一个新的行更新满足条件的所有行,而mutate则在请求中指定了一组行,用来依次变新满足条件的行。 ✔ 4)<copy-config>操作:用一个完整的数据库替换现在的数据库。有两个参数,<target>和<source>,分别指目标数据库和源数据库。 ✔ 4)为OpenFlow交换机与控制器的安全通信配置证书。 ✔ 5)发现OpenFlow交换机的能力。 4RESTCONF RESTCONF[6]是基于REST模式、用于网络配置与管理的协议,目的在于为WEB应用提供一个获取配置数据、状态数据、通知事件的标准机制。 图 4.

    1.4K50发布于 2018-04-02
  • 半导体芯片散热新突破:激光冷却技术详解

    初创公司计划通过将热量转化为光来冷却数据中心。现代高性能芯片是工程奇迹,包含数百亿个晶体管。问题是,你不能同时使用所有晶体管。

    20210编辑于 2025-12-23
  • 来自专栏雨落凋殇

    树莓派控制散热风扇的开和关

    前言   平时在使用树莓派的时候都是接上5V的散热风扇,风扇接上就开始工作,刚开始的时候还不觉得,但是时间长了风扇的声音特别的大。作为强迫症的博主来说,简直难以忍受。 fi #温度小于39度关闭风扇 if [[ $temp < 39 ]];then sudo gpio write 15 1 fi sleep 4

    5.7K21发布于 2019-12-25
  • 来自专栏云深知网络 可编程P4君

    液冷交换机探索之路

    图1 PUE用来评价数据中心能源效率 由数据中心的平均能耗组成(图2),我们发现在数据中心能耗占比中,散热系统能耗平均高达33%,接近数据中心总能耗的三分之一,这是因为传统数据中心采用的风冷散热系统是以比热容很低的空气作为载冷媒介 相较而言,单相液冷复杂度更低更易实现,且散热能力足够支撑数据中心IT设备,是当前阶段的平衡之选。 图3 数据中心IT设备主要散热方式 单相液冷分为冷板式液冷和浸没式液冷。 图4 交换机外观变化 其次,设备的纵深会比传统交换机要长,最长可以达到800mm。 4.SI特性(信号完整性) 由于浸没式液冷交换机会与液体直接接触,SI(Signal Integrality,信号完整性)会受到液体影响。 图7 32*100G 浸没式液冷数据中心接入交换机 图8 48*1G+4*10G 浸没式液冷管理网交换机 在2021年11月全球OCP峰会,锐捷网络正式发布64*400G冷板式液冷NPO交换机,满足数据中心和运营商网络的高可靠性要求

    2.1K30编辑于 2023-03-06
  • 来自专栏Alter聊科技

    数据中心的能耗焦虑, 到底有没有最优解?

    毕竟在数字经济的时代,有一个著名的经济学解释,即算力上每投入一元,将带动3-4元的经济产出,“性价比”远高于传统的农牧业和工业生产。 现实的情况却并不乐观。 根据开源证券研究所的统计结果,一个数据中心的能耗分布中,散热系统的占比高达40%。也就是说,数据中心每耗费一度电,只有一半用在了“计算”上,其他的则浪费在了散热、照明等方面。 计算和散热几乎陷入了一场零和博弈,计算量越大散热消耗的电量越大,如果不消耗足够的能源提高散热能力,将直接影响数据中心的性能、密度和可靠性。 传统的散热方案以风冷为主,即将空气作为冷媒,把服务器主板、CPU等散发出的热量传递给散热器模块,再利用风扇或空调制冷等方式将热量吹走,也是散热系统消耗数据中心近半电力的主要诱因。 可对已有的数据中心运营者来说,绿色计算是一件等不得的事,存量的数据中心也需要提高散热能力,找到性能和散热间的新平衡;对于一些追求“性价比”的客户,降低PUE的渠道不应只有液冷散热一种,而是适合自己的产品和方案

    76730编辑于 2023-01-13
  • 了解400G和800G OSFP光模块:顶部带散热片和平顶式

    顶部带散热片设计支持400G和800G OSFP等光模块,能确保高负载运行时的系统稳定性,可在大规模数据中心和AI驱动型应用中提供更高的运营效率。 顶部带散热片和平顶式OSFP光模块的主要优势散热管理顶部带散热片:散热能力强,可降低过热风险,适用于高功率密度网络设备。平顶式:节省空间,但在大规模数据中心可能需要额外散热方案。 顶部带散热片光模块:仅适用于英伟达(NVIDIA)Quantum-2 NDR InfiniBand和Spectrum-4 SN5600 400GbE以太网风冷交换机,这些交换机在高负载场景中需要有效散热 如图所示,该连接方案展示了飞速(FS)的 InfiniBand 800G SR8顶部带散热片光模块与InfiniBand 400G SR4平顶式光模块的互连方式。 随后,这些400G SR4平顶式光模块再连接至ConnectX-7 InfiniBand网卡和GPU服务器,构建起一套高效的AI计算网络解决方案。如何选择顶部带散热片和平顶式光模块?

    1.4K10编辑于 2025-03-24
  • 来自专栏为了不折腾而去折腾的那些事

    硬件笔记:能快速更换的散热耗材,固态硅脂

    本次用来折腾验证的设备是在前两年的文章里出现过的:《廉价的家用工作站方案:前篇[3]》、《AMD 4750u 及 5800u 笔记本安装 Ubuntu 20.04[4]》,Thinkpad L14 Gen1 第二步:拆散热 第二步,拆散热 我手里的设备固定散热设备,分为左侧风扇处三个螺丝,和右侧 CPU 扣具的标准四颗螺丝。 第三步:清理老硅脂 第三步,拆散热 拆下散热后,我们在 CPU 外壳和散热片上会看到之前帮助设备散热的老硅脂。 撕开硅脂贴片的薄膜纸,然后贴到散热器铜片上,等待几分钟,硅脂和金属贴合多一些,撕掉最后的薄膜纸,将散热器组装回设备即可。 [3] 廉价的家用工作站方案:前篇: https://soulteary.com/2021/07/02/cheap-home-workstation-solution-part-one.html [4]

    94510编辑于 2023-09-04
  • 来自专栏腾讯数据中心

    SuperNAP数据中心揭秘——中

    图11 SuperNAP数据中心散热风管及热吊顶设计 switch通信采用的模块化AHU、冷风送风管、热通道封闭及吊顶等这些技术来进行散热,在冷却效能方面有着突出的表现,能够有效降低后期运营成本。 ,克服了传统数据中心的不足,有着优异的散热效率。 同样的,在室外侧switch通信则定制了其模块化AHU散热系统,采用的6种运行模式能满足各种季节和不同负载的散热需求。 图15所示的模块化AHU下部的冷凝器等设计成可以通过卡车等运输到数据中心现场。 图15 SuperNAP数据中心的模块化AHU散热模块 图16和图17AHU内部的详细结构示意,下面对典型的几种不同制冷模式做简要说明。 从图18我们还可以看到9台AHU配置了4台冷却塔,没有蓄冷罐设计,每个AHU模块具备高达1000KW的制冷能力,对于这种超大规模的数据中心这个容量的颗粒度设计非常经济及高效,颗粒度太小需采购更多AHU模块数量导致成本增加

    1.7K51发布于 2018-03-16
  • 如何为数据中心选择合适的800G光模块?

    800G DR8L、DR8、XDR8(数据中心8通道):采用单模光纤,支持100m至2km的传输,适用于高性能数据中心或园区互联。 800G 2FR4(2个远距离4通道):基于单模光纤,支持约2km的距离,适用于更远距离的应用,如数据中心之间的互联。 800G 2LR4(2个远程4通道)和PLR8(并联长距离8通道):支持长达10km或更远距离,是数据中心间或城域网部署的理想选择。传输性能也会受到光纤质量、环境条件和潜在信号衰减等因素的影响。 散热设计与连接器外壳散热对于保持800G光模块的硬件耐用性和信号稳定性至关重要。 OSFP封装光模块配备集成散热片,可大幅提升散热性能。 顶部带散热片:这些光模块采用散热片结构,可提高气流效率,专用于Quantum-2 InfiniBand及Spectrum-4以太网交换机。

    72910编辑于 2025-03-22
  • 来自专栏鲜枣课堂

    数据中心的黑科技——到底什么是NPOCPO?

    所以,捣鼓数据中心的节能减排,思路就在两点: 1、减少主设备的功耗 2、减少散热和照明方面的功耗(主要是散热) █ 主设备的功耗挑战 说起主设备,大家马上就想到了服务器。 事实上,相比对网络设备的功耗提升,散热的功耗才是真正的大头。 根据数据统计,交换设备在典型数据中心总能耗中的占比,仅仅只有4%左右,还不到服务器的1/10。 但是散热呢? 即便是现在国家对PUE提出了严格要求,按照三级能效(PUE=1.5,数据中心的限定值)来算,散热也占了将近40%。 传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。 液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近90%的散热能耗。数据中心整体能耗,则可下降近36%。 这个节能效果,可以说是非常给力了,直接省电三分之一。 这款NPO交换机基于112G SerDes的25.6T的交换芯片,1RU的高度,前面板支持64个连接器的400G光接口,由16个1.6T(4×400G DR4)的NPO模块组成,支持8个ELS/RLS(

    2.8K10编辑于 2022-12-30
  • 来自专栏腾讯数据中心

    寻沧海明珠——谷歌海上数据中心

    4 海上数据中心的俯视图 图4是海上数据中心的俯视图,大家可以更为清晰得看到其集装箱的泊位和供电供水管路布置。 图5 google 油轮数据中心案例 在 2009 年4月1日的 google 数据中心能效峰会上,google 展示了其油轮数据中心的概念,虽然最后被证明只是场愚人节的玩笑,这个项目后面也暂时没有下文了 采用油轮的数据中心,甚至还可以直接采用油轮上的油来散热,比如: 1、通常油类有比海水有更为优良的传热能力; 2、采用油来散热技术非常成熟,应用在油浸式变压器散热等都有几十年的案例和经验了; 3、油和电子产品基本不会发生反应 ,无腐蚀性,且油品稳定性和可靠性较高; 4、油类通常是电的绝缘体,不会导致短路故障等,业界如 intel 公司等都已经开始采用服务器直接浸没在矿物油中来散热,因此在油轮数据中心中也可以采用类似原理用油来给数据中心散热 而海上数据中心在这些方面是优势突出: 1避免浪费土地资源 2配置带宽资源方便 3避免自然灾害带来的巨大威胁 4扩建数据中心方便 海上数据中心的想法虽然早已经提出,但是没有行动仅能称之为假想。

    1.6K50发布于 2018-03-16
领券