首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏亿源通科技HYC

    液冷技术:迎接AIGC时代数据中心散热挑战

    根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。 液冷技术不仅能够有效降低数据中心的能耗,还能够提高服务器的运行效率,延长设备的使用寿命。因此,液冷技术正逐步成为数据中心散热解决方案的首选。 根据CDCC与浪潮信息,风冷方案数据中心PUE一般在1.4-1.5左右,而液冷数据中心PUE可降低至1.2以下,采用更加节能、效率较高的液冷散热技术是大势所趋。 液冷技术通过更高效的散热方式,减少了空调系统的能耗,从而显著降低了数据中心的PUE值。这不仅有助于降低运营成本,还能够减少碳排放,符合可持续发展的要求。 短期内,冷板式液冷因技术成熟、与现有系统兼容性好、维护方便和改造成本较低,非常适合AI时代对散热的需求和数据中心从风冷向液冷的过渡阶段。

    2.3K10编辑于 2024-08-15
  • 来自专栏HyperAI超神经

    数据中心散热难?看谷歌和 DeepMind 如何用 AI 搞定它

    By 超神经 场景描述:谷歌和 DeepMind 合作,使用机器学习的方法,优化数据中心的能耗问题,成功的实现了数据中心自动化散热管理。 关键词:机器学习 数据中心 散热控制 随着互联网技术的发展,人们对计算能力需求的增加,大型的数据中心也越来越多。但这也对环境和能源带来了一丝威胁。 不散热就烧钱 数据中心大部分的额外能耗来自于降温冷却。而如何进行有效的散热管理一直是企业头疼的问题。 就像笔记本运行时需要散热一样,谷歌的数据中心为谷歌搜索, Gmail ,YouTube 等热门应用提供服务器,必须及时的将巨大的发热量处理掉,以保证它们正常的运行。 ? 数据中心散热系统 然而,常规使用的降温方法,在数据中心这样的动态环境中却很难发挥功效,主要的阻力来自于以下几个方面: 工程师如何操作设备,以及把握环境对设备产生的复杂影响。

    1.4K20发布于 2019-11-29
  • 来自专栏仿真CAE与AI

    为什么电子产品几乎都需要散热?如何做散热仿真

    然而,随着技术的进步,电子产品的性能也在不断提升,这导致了设备的功耗不断增加,从而引发了散热问题。散热,简单来说,就是将电子设备运行所产生的热量散发出去。 因此,散热问题是限制电子产品性能提升的关键因素之一。为了解决这个问题,设计师正在不断探索新的散热技术。其中,基于XFlow的理论模拟和实验研究正在成为新的研究热点。 XFlow是一种计算流体动力学(CFD)的模拟工具,可以模拟电子设备运行时的散热情况,帮助设计师更好地理解电子设备的散热机制,从而优化散热设计。 通过XFlow,设计师可以模拟出电子设备的散热情况,包括流体的速度、温度和压力等参数。这使得设计师可以在实际制造之前,对散热方案进行充分的验证和优化,从而节省时间和资源。 在XFlow的帮助下,设计师可以更好地理解电子设备的散热机制,从而优化散热设计。随着技术的发展,我们期待在不久的将来,更高效、更环保的散热技术将出现在我们的生活中,为我们的生活带来更多的便利。

    37910编辑于 2025-02-27
  • 来自专栏用户8925857的专栏

    PCB散热的10种方法!

    因此,对电路板进行很好的散热处理是非常重要的。PCB电路板的散热是一个非常重要的环节,那么PCB电路板散热技巧是怎样的。高拓电子来告诉大家。 这些基材虽然具有优良的电气性能和加工性能,但散热性差,作为高发热元件的散热途径,几乎不能指望由PCB本身树脂传导热量,而是从元件的表面向周围空气中散热。 元器件间距建议:2.高发热器件加散热器、导热板当PCB中有少数器件发热量较大时(少于3个)时,可在发热器件上加散热器或导热管,当温度还不能降下来时,可采用带风扇的散热器,以增强散热效果。 将散热罩整体扣在元件面上,与每个元件接触而散热。但由于元器件装焊时高低一致性差,散热效果并不好。通常在元器件面上加柔软的热相变导热垫来改善散热效果。 8.对温度比较敏感的器件最好安置在温度最低的区域(如设备的底部),千万不要将它放在发热器件的正上方,多个器件最好是在水平面上交错布局。9.将功耗最高和发热最大的器件布置在散热最佳位置附近。

    85450编辑于 2022-07-29
  • 笔记本散热系统各显神通,英特尔专利散热黑科技改写行业规则

    风向的改变,让机身内部从“负压”变成“正压”,并通过良好的内部密封,直接让机身内的温度下降,使散热更高效,并释放更高性能,提高了系统的功耗天花板。 在黑科技加持下,机身的散热点也得到了优化。 优化系统架构,完善接口排布 除了散热降温,这项黑科技还能够优化系统架构,平衡系统设计,改善主板布局,完善接口排布,节省散热材料,降低整机成本和重量。 近期上市并采用该技术的主流机型包括联想拯救者Y9000P至尊版游戏本,联想小新Pro 14/16 GT、荣耀MagicBook Pro 14等轻薄本,还有MSI Claw 8 AI 掌机等,涵盖了游戏, 在采用了此项散热黑科技的某款笔记本产品上,实现了“一升四降”的效果。 5美金的成本支出;在重量上,散热模块可减少大约15%的重量;另外,在噪音上也得到显著下降。

    16710编辑于 2026-03-19
  • 来自专栏Czy‘s Blog

    斐讯K3C改散热

    斐讯K3C改散热 斐讯K3C日常使用还是不错的,就是日常的温度还是比较高的,不过冬天用来当暖手宝还是不错的。 ? 这个改散热的方法是跟贴吧老哥学的,不得不说贴吧老哥还是牛皮,原贴在这,我当时拍的照片不够,有些地方还得借用贴吧老哥的图。 首先买好3cm的小风扇还有调速器,再加一跟USB线。 ? 打开风扇之后散热效果还是比较明显的,不过也是有一些噪音的,大概30%的转速下能降温十多度。 ? 风道偷一下贴吧老哥的图。 ?

    1.5K10发布于 2020-12-01
  • 半导体芯片散热新突破:激光冷却技术详解

    初创公司计划通过将热量转化为光来冷却数据中心。现代高性能芯片是工程奇迹,包含数百亿个晶体管。问题是,你不能同时使用所有晶体管。

    20210编辑于 2025-12-23
  • 来自专栏雨落凋殇

    树莓派控制散热风扇的开和关

    前言   平时在使用树莓派的时候都是接上5V的散热风扇,风扇接上就开始工作,刚开始的时候还不觉得,但是时间长了风扇的声音特别的大。作为强迫症的博主来说,简直难以忍受。 ---- 使用脚本控制风扇 通过命令行控制风扇的旋转,在wiringPi中8号引脚(TXD)的编码为15 #设置引脚为输出模式,执行以后风扇就开始旋转了 sudo gpio mode 15 output

    5.7K21发布于 2019-12-25
  • 来自专栏腾讯数据中心

    SuperNAP数据中心揭秘——中

    SuperNAP8数据中心的供电方面,switch通信选择了Symmetra MW II不间断电源系统( UPS )所提供的高效和高冗余设计,APC总计为SuperNAP提供了84兆伏安的功率,从而确保了 图8 SuperNAP 数据中心内不同颜色UPS 图9是供电线路图示意,每个IT微模块来自两个不同的PDU供电,三套PDU总共给12个微模块来供电,实现UPS的DELTA型2N供电架构,这样在保证了2N 在庞大的数据中心建筑内部,这个参观走廊蔚然大观,在SuperNAP 8建筑中间长达1100英尺过道(约335米长)的供电走廊里,总共就装了260套的500KW PDU 配电柜。 ? ,克服了传统数据中心的不足,有着优异的散热效率。 图18 SuperNAP数据中心的模块化AHU整列以及冷却塔 在SuperNAP 8数据中心另一个闪光点是其Rotofly系统,它采用了2000磅的旋转飞轮为每台AHU提供可持续的运行时间,飞轮设计省去

    1.7K51发布于 2018-03-16
  • 如何为数据中心选择合适的800G光模块?

    选择800G光模块时需考虑的关键因素传输距离800G光模块的传输范围取决于其类型,不同型号适用于不同的应用场景:800G SR8(短距离8通道): 适用于50m以内的多模光纤传输,适合短距离互联和数据中心内部连接 800G DR8L、DR8、XDR8数据中心8通道):采用单模光纤,支持100m至2km的传输,适用于高性能数据中心或园区互联。 800G 2LR4(2个远程4通道)和PLR8(并联长距离8通道):支持长达10km或更远距离,是数据中心间或城域网部署的理想选择。传输性能也会受到光纤质量、环境条件和潜在信号衰减等因素的影响。 散热设计与连接器外壳散热对于保持800G光模块的硬件耐用性和信号稳定性至关重要。 OSFP封装光模块配备集成散热片,可大幅提升散热性能。 顶部带散热片:这些光模块采用散热片结构,可提高气流效率,专用于Quantum-2 InfiniBand及Spectrum-4以太网交换机。

    72910编辑于 2025-03-22
  • 了解400G和800G OSFP光模块:顶部带散热片和平顶式

    随着AI、云计算和数据中心对高速数据传输需求的爆发式增长,光模块在现代网络架构中的作用日益关键。 顶部带散热片设计支持400G和800G OSFP等光模块,能确保高负载运行时的系统稳定性,可在大规模数据中心和AI驱动型应用中提供更高的运营效率。 顶部带散热片和平顶式OSFP光模块的主要优势散热管理顶部带散热片:散热能力强,可降低过热风险,适用于高功率密度网络设备。平顶式:节省空间,但在大规模数据中心可能需要额外散热方案。 如图所示,该连接方案展示了飞速(FS)的 InfiniBand 800G SR8顶部带散热片光模块与InfiniBand 400G SR4平顶式光模块的互连方式。 800G SR8顶部带散热片光模块连接至英伟达(NVIDIA)MQM9790-NS2F交换机,并通过2根MPO-12光纤跳线将信号拆分为两路400G连接至400G SR4平顶式光模块。

    1.4K10编辑于 2025-03-24
  • 来自专栏SDNLAB

    2020年数据中心值得关注的8大趋势

    在过去的8年里,企业在自己的数据中心硬件和软件上的支出一直停滞不前,而在云基础设施服务(如平台即服务和托管私有云)上的支出则大幅增加。 亚马逊继续投资数据中心 无论哪个角度来看,亚马逊都可以说是2019年最大的数据中心赢家。 ? 去年12月底,亚马逊首次推出数据中心硬件架构AWS Outposts。 超大规模的数据中心拥有数万台服务器、硬件和数百万台虚拟机。 AWS在2020年并没有放缓建设数据中心的步伐,因为该公司最近在全球最大的数据中心市场购买了土地。 ? “数据中心即服务”获得真正的吸引力 全球所有主要的数据中心供应商都认为,客户将希望以一种“ as-a-service”的方式购买和管理其数据中心基础设施。 原文链接: https://www.crn.com/slide-shows/data-center/8-biggest-data-center-trends-and-technologies-to-watch-for-in

    1.1K10发布于 2020-02-21
  • 来自专栏鲜枣课堂

    数据中心的黑科技——到底什么是NPOCPO?

    所以,捣鼓数据中心的节能减排,思路就在两点: 1、减少主设备的功耗 2、减少散热和照明方面的功耗(主要是散热) █ 主设备的功耗挑战 说起主设备,大家马上就想到了服务器。 根据设备厂商的数据显示,过去的12年时间,数据中心的网络交换带宽提升了80倍,背后的代价就是:交换芯片功耗提升约8倍,光模块功耗提升26倍,交换芯片SerDes功耗提升25倍。 事实上,相比对网络设备的功耗提升,散热的功耗才是真正的大头。 根据数据统计,交换设备在典型数据中心总能耗中的占比,仅仅只有4%左右,还不到服务器的1/10。 但是散热呢? 即便是现在国家对PUE提出了严格要求,按照三级能效(PUE=1.5,数据中心的限定值)来算,散热也占了将近40%。 传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。 液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近90%的散热能耗。数据中心整体能耗,则可下降近36%。 这个节能效果,可以说是非常给力了,直接省电三分之一。

    2.8K10编辑于 2022-12-30
  • 来自专栏SDNLAB

    8点20】深入了解Facebook 的Altoona数据中心网络

    Facebook最近秀了一下Altoona数据中心网络的高度模块化和可扩展性。 这个社交网络巨头高调公布了数据中心网络解决方案,因为Facebook想围绕开放计算项目展开行动,在网络设备和软件生态系统方面分一杯羹。 Andreyev:我们试图解决网络拓展性差的问题并且解除超额网络的限制,换句话说就是,在数据中心内提供任何额度的带宽,在不同规模的网络中用简单、统一的架构进行拓展。 我们配置数据中心而不是单独配置组件,组件配置主要是由系统进行高级设置实现的。我们定义数据中心并且指定某个结构拓扑的物理参数。 很多数据中心运营商也采用与设备商无关的方案,尤其是开放网络用户组的成员。那么你们怎么在数据中心领域推广你们的方案?

    1.2K50发布于 2018-04-04
  • 来自专栏为了不折腾而去折腾的那些事

    硬件笔记:能快速更换的散热耗材,固态硅脂

    写在前面 包括服务器机房在内,散热是一个绕不开的话题。 设备散热(维护)改造过程 设备的散热改造(维护)过程,还是比较简单的。 第一步:拆后盖 第一步,拆机 机器连续运行了两年后,灰尘其实还好,没有太多。 第二步:拆散热 第二步,拆散热 我手里的设备固定散热设备,分为左侧风扇处三个螺丝,和右侧 CPU 扣具的标准四颗螺丝。 第三步:清理老硅脂 第三步,拆散热 拆下散热后,我们在 CPU 外壳和散热片上会看到之前帮助设备散热的老硅脂。 撕开硅脂贴片的薄膜纸,然后贴到散热器铜片上,等待几分钟,硅脂和金属贴合多一些,撕掉最后的薄膜纸,将散热器组装回设备即可。

    94510编辑于 2023-09-04
  • 来自专栏IT创事记

    散热与可靠性兼得的极限挑战:我知道风,是在哪一个方向吹

    数据中心为了降低PUE,必须让能源更多向IT设备倾斜,这对服务器的供电和散热研发设计提出了更高要求。供电效率提升可降低CPU等关键部件散热量,从而减少空调等设备的使用。 液冷是散热技术的翘楚,用液体取代空气作为冷媒,带走部件热量,常见的方式有冷板、浸没、风液混合等。目前,部分液冷服务器已在云数据中心和边缘数据中心规模化部署,对降低PUE效果显著。 但液冷技术对数据中心的机房环境要求苛刻,重新改造的成本也较高,浸没式液冷的冷却液价格更是堪比茅台。 对大多数数据中心来说,风冷才是低成本改善散热的主流方案,最“简单粗暴”的做法是提高服务器风扇转速。 相关数据显示,配置波导网的浪潮信息M6服务器散热效率大幅提升17%~22%,可让数据中心环温提升1.5~2摄氏度,节约6%~8%的能耗。 此外,波导网还能减少气流对硬盘高频振动的影响,硬盘IOPS性能提升8%~10%。 波导网研发模式的启示 波导网的横空出世,既是特定极限压力环境下的成果,也是浪潮信息特色研发模式的产物。

    53910编辑于 2022-08-30
  • 来自专栏云深知网络 可编程P4君

    液冷交换机探索之路

    散热系统作为同时影响性能和能耗的关键因素成为数据中心改革的重点,而液冷技术由于其独特优势,正逐步取代传统风冷成为主流散热方案。 图1 PUE用来评价数据中心能源效率 由数据中心的平均能耗组成(图2),我们发现在数据中心能耗占比中,散热系统能耗平均高达33%,接近数据中心总能耗的三分之一,这是因为传统数据中心采用的风冷散热系统是以比热容很低的空气作为载冷媒介 未来5-10年,数据中心风冷散热会逐渐被液冷替代也成为业内共识。 相较而言,单相液冷复杂度更低更易实现,且散热能力足够支撑数据中心IT设备,是当前阶段的平衡之选。 图3 数据中心IT设备主要散热方式 单相液冷分为冷板式液冷和浸没式液冷。 图7 32*100G 浸没式液冷数据中心接入交换机 图8 48*1G+4*10G 浸没式液冷管理网交换机 在2021年11月全球OCP峰会,锐捷网络正式发布64*400G冷板式液冷NPO交换机,满足数据中心和运营商网络的高可靠性要求

    2.1K30编辑于 2023-03-06
  • 来自专栏用户7438789的专栏

    数据中心布线:12芯光缆和8芯光缆的选择

    但如果将“同时使用”理解为在同一数据中心同时使用 8 芯光缆和 12 芯光缆连接技术,那么答 案就是“可以”,但有一个条件。 因此,对数据中心物理层基础设施进行管理 时要稍加注意,确保8 芯光缆和 12 芯光缆组件未在同一个光缆链路中混用。 8 芯光缆和 12 芯光缆的对比:如何选择? 8 芯 光缆和 12 芯光缆连接技术部署在数据中心的比较优势详见下表。 虽然每个连接器使用的光纤密度不可忽视,但大多数人还是更关注如何更快迁移到 40G 和 100G 的网速。 目前,任何近期打算将数据中心迁移到 40G 或 100G 网络的人都会发现采用 8 芯光缆连 接技术更具优势。 结语 在未来的多年时间里,数据中心仍然将继续使用 8 芯光缆和 12 芯光缆连接技术。 8 芯光缆连接技术只是网络设计人员工具包中的一个备选方案,它可以确 保数据中心实现最佳的成本效益,拥有满足未来需求的网络,而且轻松迁移至 400G 的传输网 络。

    3.2K20发布于 2020-06-10
  • 来自专栏光芯前沿

    从空冷到浸没式液冷:AI数据中心热管理与光模块技术的协同革新

    一方面,AI集群的功率密度持续飙升,从DGX A100到Rubin Ultra(NVL576),单机架功耗不断突破上限,传统依赖CRAC/CRAH机组与散热管道的空冷技术逐渐触及性能天花板;另一方面,数据中心需在提升计算能力的同时 作为下一代主流冷却技术,浸没式液冷通过将整个服务器浸入专用冷却流体中,实现了全部件的全域散热,展现出显著优势:支持超高密度部署,1RU服务器可容纳4或8块GPU,大幅降低空间需求;流体散热避免了机械振动 LPO技术通过移除DSP芯片,重构信号传输架构,实现了双重核心优势:功耗降低约50%, 时延显著减少,直接缓解了数据中心的功耗与散热压力;同时通过模块阻抗的设计与制造控制,以及与主机设备、ASIC主板的阻抗 测试数据显示,OSFP-RHS 400G SR4浸没式有源光缆(iAOC)在流体环境中的共面阻抗为89.94Ω,虽较空气环境的97.67Ω降低约8Ω,但仍处于稳定传输的合理范围,未对信号质量造成实质性影响 随着浸没式液冷与LPO技术的规模化部署,数据中心正从“被动散热”向“主动优化”转型,未来将实现性能、效率与环保的三重平衡,为AI与HPC技术的持续创新提供坚实基础。 完整报告如下:

    78610编辑于 2025-12-24
  • 来自专栏光芯前沿

    Supermicro&Micas协同发力:让CPO+液冷成为AI集群规模化标配

    的主题分享,聚焦AI数据中心面临的功耗与散热瓶颈,详解了共封装光学(CPO)与液冷技术的协同解决方案,为AI基础设施规模化部署提供了切实可行的路径。 ◆ AI数据中心的核心困境:功耗与散热的双重壁垒 随着AI技术的爆发式发展,数据中心的功耗需求正呈指数级增长。 曾经数百台300WGPU的部署规模已被视为“杯水车薪”,如今AI机架的功耗已突破每架100kW,部分场景更是迈入吉瓦级阶段——一台AI机架的功耗相当于同时为45辆特斯拉充电,远超传统数据中心8kW的设计标准 ① 液冷技术:千倍效率的散热革命 液冷技术的核心优势在于其远超风冷的散热效率——散热能力达到风冷的上千倍,能够精准应对高功耗芯片的散热需求。 即使在现有数据中心基础上新增服务器,也能有效控制对供电与散热系统的额外需求,避免触发HVAC阈值,实现“无惊喜”的平滑扩容。

    65110编辑于 2025-11-18
领券