首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏亿源通科技HYC

    液冷技术:迎接AIGC时代数据中心散热挑战

    根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。 液冷技术不仅能够有效降低数据中心的能耗,还能够提高服务器的运行效率,延长设备的使用寿命。因此,液冷技术正逐步成为数据中心散热解决方案的首选。 根据CDCC与浪潮信息,风冷方案数据中心PUE一般在1.4-1.5左右,而液冷数据中心PUE可降低至1.2以下,采用更加节能、效率较高的液冷散热技术是大势所趋。 液冷技术通过更高效的散热方式,减少了空调系统的能耗,从而显著降低了数据中心的PUE值。这不仅有助于降低运营成本,还能够减少碳排放,符合可持续发展的要求。 短期内,冷板式液冷因技术成熟、与现有系统兼容性好、维护方便和改造成本较低,非常适合AI时代对散热的需求和数据中心从风冷向液冷的过渡阶段。

    2.3K10编辑于 2024-08-15
  • 来自专栏HyperAI超神经

    数据中心散热难?看谷歌和 DeepMind 如何用 AI 搞定它

    By 超神经 场景描述:谷歌和 DeepMind 合作,使用机器学习的方法,优化数据中心的能耗问题,成功的实现了数据中心自动化散热管理。 关键词:机器学习 数据中心 散热控制 随着互联网技术的发展,人们对计算能力需求的增加,大型的数据中心也越来越多。但这也对环境和能源带来了一丝威胁。 在大规模的商业和工业系统中,数据中心消耗的能源占了很大的比例。从环境角度来说, 2017 的数据显示,数据中心使用量占据了全球能源总消耗量的 3% ,排放量占全球温室气体总量的 2% 。 不散热就烧钱 数据中心大部分的额外能耗来自于降温冷却。而如何进行有效的散热管理一直是企业头疼的问题。 数据中心散热系统 然而,常规使用的降温方法,在数据中心这样的动态环境中却很难发挥功效,主要的阻力来自于以下几个方面: 工程师如何操作设备,以及把握环境对设备产生的复杂影响。

    1.4K20发布于 2019-11-29
  • 来自专栏Czy‘s Blog

    斐讯K3C改散热

    斐讯K3C改散热 斐讯K3C日常使用还是不错的,就是日常的温度还是比较高的,不过冬天用来当暖手宝还是不错的。 ? 这个改散热的方法是跟贴吧老哥学的,不得不说贴吧老哥还是牛皮,原贴在这,我当时拍的照片不够,有些地方还得借用贴吧老哥的图。 首先买好3cm的小风扇还有调速器,再加一跟USB线。 ? 首先我们要把K3C的外壳拆掉,路由器的下边脚垫揭下来后有四个螺丝,只需要卸下来背面的俩螺丝就行了,背面就是没有interl喷漆的那一面,我在拆的时候掰断了好几个卡扣,这就比较尴尬,不过要无损地去拆也是比较难的 在K3C外部有一个USB的插口,将调速器插上之后把USB线往内部引,我是用钻头打了个洞,正好插进去USB线,我用的这个USB比较粗所以插得比较费劲。 ? 打开风扇之后散热效果还是比较明显的,不过也是有一些噪音的,大概30%的转速下能降温十多度。 ? 风道偷一下贴吧老哥的图。 ?

    1.5K10发布于 2020-12-01
  • 来自专栏物联网IOT安全

    树莓派3B添加温控散热风扇

    在我16年入手raspberry pi 3B的时候,就考虑做这个一个温度控制的装置,来给树莓派散热。最早是想加入一个温度传感器,来检测cpu温度,然后使用一个继电器来连接信号针脚和正极负极针脚。 原理就是通过读取系统中温度信息,如果达到程序设置的温度阈值1,就启动风扇散热;在风扇转动的过程中不间断进行温度判断,如果达到温度阈值2,就停止转动。 #!

    2.5K10发布于 2020-04-08
  • 来自专栏仿真CAE与AI

    为什么电子产品几乎都需要散热?如何做散热仿真

    然而,随着技术的进步,电子产品的性能也在不断提升,这导致了设备的功耗不断增加,从而引发了散热问题。散热,简单来说,就是将电子设备运行所产生的热量散发出去。 因此,散热问题是限制电子产品性能提升的关键因素之一。为了解决这个问题,设计师正在不断探索新的散热技术。其中,基于XFlow的理论模拟和实验研究正在成为新的研究热点。 XFlow是一种计算流体动力学(CFD)的模拟工具,可以模拟电子设备运行时的散热情况,帮助设计师更好地理解电子设备的散热机制,从而优化散热设计。 通过XFlow,设计师可以模拟出电子设备的散热情况,包括流体的速度、温度和压力等参数。这使得设计师可以在实际制造之前,对散热方案进行充分的验证和优化,从而节省时间和资源。 在XFlow的帮助下,设计师可以更好地理解电子设备的散热机制,从而优化散热设计。随着技术的发展,我们期待在不久的将来,更高效、更环保的散热技术将出现在我们的生活中,为我们的生活带来更多的便利。

    37910编辑于 2025-02-27
  • 来自专栏python3

    cisco数据中心理论小记-3

    PCH-带宽利用率提升,逻辑上单链路 l2/l3都可以使用 passive -LACP /active-Lacp/ on-Static 无协议-on 有协商-LACP neuxs 不支持PACP vPC fp=== VPC plus vpc over vxlan vpc over aci VPC guidelines: 1-switch type 平台一样 2-link speed: 10Gbp+ 3- 不同数据中心二层访问解决方案。 OTV完成了: 1-mac路由 ,实现多个数据中心二层互通 《mac in ip》===>不是大二层技术,实现特定 vlan通信,而是DCI[跨数据中心]技术 ,跨数据中心mac互通,让两个站点间vlan mac routing-- conftrol plane:isis 2-dynamic encap of l2 in l3,动态封装 3-Arp cache ,支持组播 etc...

    1.2K20发布于 2020-01-09
  • 来自专栏技术杂记

    BGP数据中心鉴别方法3

    192.168.2.254) [*] 0.507 ms 0.523 ms 2 58.246.136.1 (58.246.136.1) [AS17621] 2.187 ms 3.021 ms 2.763 ms 3

    53030编辑于 2022-04-25
  • 来自专栏用户8925857的专栏

    PCB散热的10种方法!

    因此,对电路板进行很好的散热处理是非常重要的。PCB电路板的散热是一个非常重要的环节,那么PCB电路板散热技巧是怎样的。高拓电子来告诉大家。 元器件间距建议:2.高发热器件加散热器、导热板当PCB中有少数器件发热量较大时(少于3个)时,可在发热器件上加散热器或导热管,当温度还不能降下来时,可采用带风扇的散热器,以增强散热效果。 当发热器件量较多时(多于3个),可采用大的散热罩(板),它是按PCB板上发热器件的位置和高低而定制的专用散热器或是在一个大的平板散热器上抠出不同的元件高低位置。 将散热罩整体扣在元件面上,与每个元件接触而散热。但由于元器件装焊时高低一致性差,散热效果并不好。通常在元器件面上加柔软的热相变导热垫来改善散热效果。 3.对于采用自由对流空气冷却的设备,最好是将集成电路(或其他器件)按纵长方式排列,或按横长方式排列。

    85450编辑于 2022-07-29
  • 笔记本散热系统各显神通,英特尔专利散热黑科技改写行业规则

    向外“吹热风”变成向内“灌凉风” 英特尔的Esther Island黑科技,是将风扇的“散热风向”由向外“吹热风”调整为向内“灌凉风”。 风向的改变,让机身内部从“负压”变成“正压”,并通过良好的内部密封,直接让机身内的温度下降,使散热更高效,并释放更高性能,提高了系统的功耗天花板。 在黑科技加持下,机身的散热点也得到了优化。 优化系统架构,完善接口排布 除了散热降温,这项黑科技还能够优化系统架构,平衡系统设计,改善主板布局,完善接口排布,节省散热材料,降低整机成本和重量。 在采用了此项散热黑科技的某款笔记本产品上,实现了“一升四降”的效果。 5美金的成本支出;在重量上,散热模块可减少大约15%的重量;另外,在噪音上也得到显著下降。

    16710编辑于 2026-03-19
  • 来自专栏ICT售前新说

    双活数据中心建设概览-part-3

    本门课程就以华为双活数据中心建设为例,详细分析一下在双活数据中心建设过程中涉及到的端到端六层双活的实现方法。 2、计算层双活:计算层双活本质上也是通过集群的方式实现的,主要是指本端数据中心和对端数据中心的虚机所使用的构建的集群。 【其实6层双活每一层都离不开集群这个词】 3、应用层双活:在物理机或虚机上都可以实现应用层双活,在物理机或者虚机里安装相关服务软件如web服务、APP服务,然后把多个应用拉到同一个集群里,当然这个操作需要借助集群软件来实现 ,那既然本端数据中心和对端数据中心的应用层都在一个应用集群里,那应用层双活自然就可以实现。 可以通过以上6层双活实现技术为载体,根据用户要求建设出一套满足未来3-5年业务发展所需的双活数据中心.

    1.2K30发布于 2021-03-29
  • 来自专栏SDNLAB

    【连载-3数据中心网络虚拟化 隧道技术

    如何实现不同租户和应用间的地址空间和数据流量的隔离是实现数据中心网络虚拟化首先需要解决的几个问题之一。所谓地址空间的隔离是指不同租户和应用之间的网络(ip)地址之间不会产生相互干扰。 目前在数据中心内应用VXLAN技术最广泛的场景即是实现虚拟机在三层网络范围内的自由迁移。 使用VXLAN之后,原来局限于同数据中心、同物理二层网、同VLAN的虚拟机迁移可以不再受这些限制,可以按需扩展到虚拟二层网络上的任何地方。 NVGRE最初由微软公司提出,其目的是为了实现数据中心的多租户虚拟二层网络,其实现方式是将以太网帧封装在GRE头内并在三层网络上传输(MAC-in-IP)[3]。 采用NVGRE封装的数据包头格式 4.STT STT(Stateless Transport Tunneling),无状态传输隧道技术,是在数据中心2层/3层物理网络上创建2层虚拟网络的又一种Overlay

    2.4K60发布于 2018-04-02
  • 半导体芯片散热新突破:激光冷却技术详解

    初创公司计划通过将热量转化为光来冷却数据中心。现代高性能芯片是工程奇迹,包含数百亿个晶体管。问题是,你不能同时使用所有晶体管。

    20210编辑于 2025-12-23
  • 来自专栏雨落凋殇

    树莓派控制散热风扇的开和关

    前言   平时在使用树莓派的时候都是接上5V的散热风扇,风扇接上就开始工作,刚开始的时候还不觉得,但是时间长了风扇的声音特别的大。作为强迫症的博主来说,简直难以忍受。 我觉得我有必要再贴上一张三极管的引脚图1(发射极)、2(基级)、3(集电极) ? 连接起来的效果图如下 ?

    5.7K21发布于 2019-12-25
  • 来自专栏电源驱动IC

    AP6317 同步3A锂电充电IC 带散热 便携式设备 充电器

    概述是一款面向5V交流适配器的3A锂 离子电池充电器。它是采用800KHz固定频率的同 步降压型转换器,因此具有高达92%以上的充电效 率,自身发热量极小。 采用带散热片的SOP8封装,并且只 需极少的外围元器件,因此能够被嵌入在各种手持 式应用中,作为大容量电池的高效充电器。 、无电池和故障状态显示 待机模式下的供电电流为70uA 2.9V涓流充电 软启动限制了浪涌电流 电池温度监测功能 输出短路保护功能 采用8引脚SOP封装应用 移动电话 平板电脑 MP3

    57230编辑于 2023-03-24
  • 来自专栏Alter聊科技

    数据中心的能耗焦虑, 到底有没有最优解?

    以全球最为知名的预训练大模型GPT-3为例,一次训练要消耗巨量的算力,需要消耗约19万度的电力,产生85万吨的二氧化碳,将其形容为“耗电怪兽”绝不为过。 毕竟在数字经济的时代,有一个著名的经济学解释,即算力上每投入一元,将带动3-4元的经济产出,“性价比”远高于传统的农牧业和工业生产。 现实的情况却并不乐观。 根据开源证券研究所的统计结果,一个数据中心的能耗分布中,散热系统的占比高达40%。也就是说,数据中心每耗费一度电,只有一半用在了“计算”上,其他的则浪费在了散热、照明等方面。 计算和散热几乎陷入了一场零和博弈,计算量越大散热消耗的电量越大,如果不消耗足够的能源提高散热能力,将直接影响数据中心的性能、密度和可靠性。 可对已有的数据中心运营者来说,绿色计算是一件等不得的事,存量的数据中心也需要提高散热能力,找到性能和散热间的新平衡;对于一些追求“性价比”的客户,降低PUE的渠道不应只有液冷散热一种,而是适合自己的产品和方案

    76730编辑于 2023-01-13
  • 来自专栏云深知网络 可编程P4君

    液冷交换机探索之路

    图1 PUE用来评价数据中心能源效率 由数据中心的平均能耗组成(图2),我们发现在数据中心能耗占比中,散热系统能耗平均高达33%,接近数据中心总能耗的三分之一,这是因为传统数据中心采用的风冷散热系统是以比热容很低的空气作为载冷媒介 这也意味着,如果散热器的能力提升想要平衡芯片的功耗增加,就需要更优质的导热材质和散热器设计,但目前高性能风冷散热器的设计和加工大都已经获得了热管、均温板和3D VC的加持,已经接近性能优化的极限。 可以说,风冷散热的最终瓶颈是其翅片式结构对空间的刚需。此外,为了增大风量,风扇转速已经到了3万转,飞机起飞般的噪音深深困扰着开发和运维人员。 相较而言,单相液冷复杂度更低更易实现,且散热能力足够支撑数据中心IT设备,是当前阶段的平衡之选。 图3 数据中心IT设备主要散热方式 单相液冷分为冷板式液冷和浸没式液冷。 浸没式液冷的优点包括:(1)由于冷却液直接接触设备,散热能力更强,器件超温风险更低;(2)浸没式液冷设备无需风扇,设备震动更少,硬件设备的使用寿命更长;(3)浸没式液冷的机房侧冷冻水供液温度高,室外侧更易散热

    2.1K30编辑于 2023-03-06
  • 来自专栏为了不折腾而去折腾的那些事

    硬件笔记:能快速更换的散热耗材,固态硅脂

    本次用来折腾验证的设备是在前两年的文章里出现过的:《廉价的家用工作站方案:前篇[3]》、《AMD 4750u 及 5800u 笔记本安装 Ubuntu 20.04[4]》,Thinkpad L14 Gen1 第二步:拆散热 第二步,拆散热 我手里的设备固定散热设备,分为左侧风扇处三个螺丝,和右侧 CPU 扣具的标准四颗螺丝。 第三步:清理老硅脂 第三步,拆散热 拆下散热后,我们在 CPU 外壳和散热片上会看到之前帮助设备散热的老硅脂。 撕开硅脂贴片的薄膜纸,然后贴到散热器铜片上,等待几分钟,硅脂和金属贴合多一些,撕掉最后的薄膜纸,将散热器组装回设备即可。 Pro 2013): https://soulteary.com/2023/02/04/cheap-home-workstation-solution-mac-pro-2013.html.html [3]

    94510编辑于 2023-09-04
  • 来自专栏腾讯数据中心

    SuperNAP数据中心揭秘——中

    ,是行业标准的3倍之多。 图11 SuperNAP数据中心散热风管及热吊顶设计 switch通信采用的模块化AHU、冷风送风管、热通道封闭及吊顶等这些技术来进行散热,在冷却效能方面有着突出的表现,能够有效降低后期运营成本。 ,克服了传统数据中心的不足,有着优异的散热效率。 同样的,在室外侧switch通信则定制了其模块化AHU散热系统,采用的6种运行模式能满足各种季节和不同负载的散热需求。 图15所示的模块化AHU下部的冷凝器等设计成可以通过卡车等运输到数据中心现场。 图15 SuperNAP数据中心的模块化AHU散热模块 图16和图17AHU内部的详细结构示意,下面对典型的几种不同制冷模式做简要说明。

    1.7K51发布于 2018-03-16
  • “太空数据中心”真的靠谱吗?

    ,并且可利用太空低温环境来解决数据中心关键的散热问题。 埃隆·马斯克于2025年11月初在“X”平台上公开表示,SpaceX计划通过扩大其未来的Starlink V3卫星在太空中部署数据中心,这些卫星具有高速激光链路。 3、太空太阳能电池技术已满足需求 在太空太阳能电池发电技术上,早期卫星使用硅电池,效率只有约15%。 3散热问题 在地球上,散热主要通过传导(接触散热器)和对流(空气或液体流动)。 辐射散热板的面积必须足够大,因为辐射散热效率相对较低。一个大功率数据中心可能需要像足球场那么大的辐射板。

    33510编辑于 2026-03-19
  • 来自专栏超级架构师

    数据中心」Cisco数据中心Spine and Leaf架构:数据中心演进

    系列:Cisco数据中心Spine and Leaf架构:设计概述白皮书 数据中心是现代软件技术的基础,在企业拓展能力方面起着至关重要的作用。 传统的数据中心使用三层体系结构,服务器根据位置划分为pod,如图1所示。 ? 图1. 传统的三层数据中心设计 该架构由核心路由器、聚合路由器(有时称为分发路由器)和访问交换机组成。 基于vPC的数据中心设计 自2003年以来,随着虚拟技术的引入,在三层数据中心设计中,在第2层的pod中隔离的计算、网络和存储资源可以被汇集起来。 这项革命性的技术创造了对更大的第2层域的需求,从访问层到核心层,如图3所示。 ? 图3. 扩展三层域的数据中心设计 随着第2层分段在所有pod中扩展,数据中心管理员可以创建一个中心的、更灵活的资源池,可以根据需要重新分配。

    3K20发布于 2020-07-20
领券