首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏云深知网络 可编程P4君

    液冷交换机探索之路

    本文将从政策和芯片角度剖析数据中心交换机引入液冷技术的必要性,就液冷技术不同方案的差异化,探讨锐捷在冷板式液冷交换机和浸没式液冷交换机的研发经验及成果。 液冷技术分类和优缺点 当前液冷技术主要分为单相液冷和两相液冷,锐捷在COBO的白皮书“Design Considerations of Optical Connectivity in a Co-Packaged 相较而言,单相液冷复杂度更低更易实现,且散热能力足够支撑数据中心IT设备,是当前阶段的平衡之选。 图3 数据中心IT设备主要散热方式 单相液冷分为冷板式液冷和浸没式液冷。 冷板式液冷液冷冷板固定在设备主要发热器件上,依靠流经冷板的液体将热量带走达到散热的目的。 浸没式液冷交换机研发经验 近年来,各大公司在浸没式液冷数据中心方案上展开探索,锐捷网络在研发浸没式液冷交换机中也积累了较多经验,主要体现在浸没式液冷交换机的结构外观、风扇剪裁、材质兼容、SI特性(信号完整性

    2.1K30编辑于 2023-03-06
  • 来自专栏计算机视觉战队

    液冷GPU工作站「IW7210-4GTi」四卡+双路CPU液冷

    静思工作站 IW7210-4GTi 四卡+双路CPU液冷 | 液冷静音工作站 静思工作站 IW7210-4GTi 是思腾合力历时一年专为办公场景倾情打造的一款水冷GPU工作站 ,支持第二代 Intel

    1.4K20编辑于 2022-05-05
  • 浸没式液冷数据互联解决方案

    在数据中心浸没式液冷方案中,主设备浸没在特殊的液体中,使用传统的光模块或者有源光缆,经过长时间的浸没,液体可能会渗入光路中,从而使通信中断。 大成鹏通信隆重推出CIPanel浸没式液冷数据互联解决方案,不同于传统注胶AOC的解决方案,该解决方案是将主设备的接口通过铜缆延长扩展到液上,而后再通过传统光模块、有源光缆AOC、无源铜缆DAC实现数据互连 四:总结 大成鹏通信浸没式液冷数据互联解决方案CIPanel,完全避免了传统光互联产品可能因液体侵入而导致的阻塞光路从而中断通信的问题,极大提高可靠性的同时,兼顾便捷部署、维护、美观等特点

    34900编辑于 2024-07-28
  • 来自专栏大数据在线

    液冷数据中心,理想如何照进现实?

    就像近日的浪潮信息生态伙伴大会IPF2022上,浪潮信息率先行动,正式亮相亚洲最大液冷数据中心研发生产基地“天池”,更携手京东云联合发布天枢(ORS3000S)液冷整机柜服务器,为液冷数据中心的发展注入一股强力助推剂 例如,新建数据中心规划起点高,通常选择会比较容易,像冷板式、沉浸式液冷等方案均为不错的选择;但亦不能忽视很多已有数据中心的液冷改造难度,这部分数据中心往往是根据风冷模式来设计,如何降低这些数据中心的液冷改造成本就成为影响液冷普及推广的关键挑战 无疑,液冷数据中心现阶段的发展需要市场破局者,在强大研发能力和产品交付能力的基础上,携手产业链上下游合作伙伴,推动液冷标准的完善、产品的联合创新和解决方案的构建,从而让液冷数据中心真正实现理想照进现实。 在产品层面,浪潮信息充分考虑到市场上差异化需求,拥有包括冷板式液冷、热管式液冷、浸没式液冷等各类型的产品;以冷板式液冷数据中心产品为例,浪潮信息拥有从液冷机柜到紧凑型微模块、单排微模块、双排微模块等一系列模块化液冷数据中心产品 此外,浪潮信息还自主设计数据中心内外部的液冷冷却循环系统,实现液冷数据中心端到端交付。

    1.1K10编辑于 2022-04-06
  • 来自专栏6G

    液冷技术与电信从业者

    随着数据中心液冷方案进入主流视野,电信从业者亟需深入理解液冷技术特性。在ECOC等行业展会上,已出现运行于鱼缸气泡中的交换机与光模块。 液冷架构由多个部分组成,并且每个部分还可以继续细分,但本质上液冷架构可以描述为三个部分:热捕获,热交换,冷源。 液冷兴起的原因 从传统风冷向数据中心液冷的转变主要受人工智能和机器学习驱动。这些技术对计算能力提出了巨大需求,进而催生了对超高性能计算机芯片的需求。 面对如此高的功率密度,液冷正成为未来的解决方案。那么,液冷有哪些优势和类型? 液冷的优势源于其物理特性:液体是比气体(如空气)更好的热导体,具有更高的体积热容。 液冷系统的附带优势包括运行安静(液冷管道几乎无声,而风冷风扇噪音较大)和更紧凑的安装空间。液冷系统所需液体质量远小于风冷系统的设备和管道体积。

    42610编辑于 2025-02-07
  • 来自专栏计算机视觉战队

    Exxact公司提供液冷人工智能开发平台

    计算机视觉研究院专栏 Column of Computer Vision Institute 液冷人工智能开发平台! Exxact提供的新发布的液冷AI解决方案配备了两个最新的第四代Intel Xeon Scalable CPU,并通过两个NVIDIA A100 PCIe GPU加速,所有这些都是液冷的。 Exxact TensorEX TWS-194019223 是一款预制液冷5U机架式工作站,具有双英特尔至强可扩展6444Y CPU和4个NVIDIA A100 80GB NVLinked GPU,通过双 TensorEX TWS-167626740是可配置不同第四代英特尔至强可扩展CPU的可定制平台,并提供7个PCIe 5.0 x16插槽,支持多达4个液冷NVIDIA A100 80GB GPU。

    52920编辑于 2023-08-24
  • 来自专栏光芯前沿

    Accelink USA:低功耗LPO、LRO及液冷光模块

    三、液冷光模块方案 (一)技术优势 - 能效提升:双相浸没式冷却相较于空气冷却,能够显著降低数据中心的PUE。光模块直接浸没于冷却液中,通过液体相变进行散热,进一步优化了系统级能效。 - 液冷光模块:通过硬件设计创新,如MPO接口,与散热方案相结合,为数据中心能效提升提供了新的途径。未来,需要通过行业协同测试,如OCP标准适配,来验证其在多系统中的兼容性。

    97510编辑于 2025-05-17
  • 来自专栏企鹅号快讯

    数据中心冷战:风冷未央 液冷已至

    目前,对于浸没液冷技术国内外很多厂商都都进行了研究,例如,IBM公司从20世纪70年代开始浸没液冷的研究,具有30多项机架式浸没液冷专利。美国的GRC开发了高沸点单相浸没的碳氢溶剂制冷系统。 另外,我国的一些企业也在研究开发相关浸没液冷技术,例如曙光,从2012年开始就对液冷服务器技术进行了探索和研究。 浸没液冷技术之所以受到众多厂商的青睐,主要是因为它突出的性能。 首先,液体的冷却能力是空气的1000-3000倍;其次,液冷可实现高密度、低噪音、低传热温差、自然冷却等优点;另外,浸没液冷的功率密度可超过每机柜体积100kW、噪音低于50dB、PUE低于1.2。 虽然浸没液冷技术有诸多的优势,但是目前却无法大面积的使用在已建数据中心中,因为如果采用浸没液冷方式的话,需要对原有的数据中心结构进行较大改造,而这对于数据中心运营商来说是一笔不小的成本,另外,许多热负荷较低的小型数据中心机房可能并没有必要采用液冷的必要 不过,浸没液冷技术的前景还是非常客观的,近几年,国内数据中心的建设如火如荼,并且数据中心正在向大型和超大型方面发展,液冷技术将会更好的发挥其技术优势。

    2K50发布于 2018-01-24
  • 来自专栏亿源通科技HYC

    液冷技术:迎接AIGC时代数据中心的散热挑战

    液冷技术的分类液冷系统根据液体与硬件直接的接触方式分为直接液冷和间接液冷,直接液冷就是液体与需要冷却的硬件组件直接接触达到冷却的目的,又可分为浸没式和喷淋式;间接液冷是指液体不与硬件直接接触,通过一个中介组件 冷板式液冷系统主要由冷却塔、冷量分配单元(CDU)、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成。 液冷产业链液冷产业链包括上游的产品零部件提供商、中游的液冷服务器提供商、下游的算力使用者。 一体化交付还是解耦式交付目前冷板式液冷服务器有三种交付模式,①IT设备侧仅交付液冷服务器;②IT侧交付“液冷服务器+液冷机柜”;③IT侧交付“液冷服务器+液冷机柜+CDU+二次侧管路”。 国内三大运营商发表液冷技术白皮书中提出液冷三年愿景,逐步开展液冷技术的验证、实验,将于2025年开展液冷技术的大规模应用,预计应用于50%以上数据项目,推动形成标准统一化、规模化,助推液冷解耦式交付。

    2.1K10编辑于 2024-08-15
  • 来自专栏液冷服务器

    东数西算下,液冷数据中心为何日趋重要?

    随着液冷相关技术的日趋成熟,国内外许多公司开始为客户提供定制化的液冷技术解决方案,一些科技公司也逐步建设和部署了自己的液冷数据中心。 液冷方式分为冷板液冷和浸没式液冷,浸没式液冷方式又可分为相变浸没式液冷和非相变浸没式液冷。 冷板式液冷为间接接触型,浸没式液冷为直接接触型。 两相浸没式液冷的能耗低于单相浸没式液冷。数据中心浸没式液冷技术的能耗主要是由水泵和室外冷却设备驱动液体循环产生的,根据冷却液热交换过程中是否发生相变,可分为单相浸入液冷却和两相浸入液冷。 其中,两相浸没式液冷的循环是被动的,因此两相浸没式液冷的能耗普遍低于单相浸没式液冷。由于浸没式液冷的室外侧通常是高温水,其室外冷却设备往往可以使用自然冷源,不受场地面积的限制,达到节能减排的目的。 伴随着液冷数据中心及其基础设施的逐步大规模商业应用,以及液冷技术的优势不断显现和传统观念的改变,液冷数据中心的市场接受度将不断提高,技术设施普及速度加快。 液冷数据中心基础设施技术和性能不断优化。

    1.2K30编辑于 2023-02-28
  • 来自专栏Python项目实战

    数据中心节能:液冷 + AI 调度,到底是不是“真解法”?

    二、液冷不是新东西,只是以前“用不起、玩不转”1️⃣液冷到底在干嘛?别被名词吓到说白了就一句话:用液体,替代空气,把热带走。因为液体的导热能力,比空气高一个数量级以上。 常见的三种液冷方式:冷板式(Direct-to-Chip):冷却液直接贴着CPU/GPU流浸没式液冷:服务器直接“泡澡”后门换热(RearDoorHX):给风冷打补丁我个人的看法很明确:未来十年,真正的主流是 2️⃣液冷为什么突然“火”了?不是因为它多先进,而是因为:风冷真的快到物理极限了AIHPC大模型太吃功耗了PUE再压不下来,账就算不过来一句话总结:不是液冷多香,是风冷已经不行了。 三、但光有液冷,还远远不够如果你以为:“上了液冷,节能问题就解决了”那我可以很负责任地说一句:想多了。 六、液冷+AI调度,真正的价值在哪?

    13510编辑于 2026-01-19
  • 来自专栏CU技术社区

    从整机柜液冷到全产业生态,戴尔科技亮相全球顶级超算大会

    最近几年,SC大会的展区上总少不了液冷的身影,这一方面是由于液冷技术的发展,另一方面也是传统风冷面对超级计算机这种性能“怪兽”有点力不从心。 所以这次,戴尔也为那些需要高性能计算同时又需要高能效表现的用户提供了液冷服务器,PowerEdge C6420就是其中的代表。 ? 虽然相对于风冷平台来说,液冷设备的初期采购成本相对贵一些,但是对于一台服务器来说,一般的生命周期都要在3-5年,而这么长的时间内液冷所提供的散热效率和节能优势,已经低于风冷平台的采购成本。 在算明白这本“经济账”之后,越来越多的超算用户开始讲目光聚焦在液冷平台上来,TOP500榜单中排名靠前的多套系统都采用液冷散热,比如中国顶尖的神威·太湖之光和天河二号A。 这样一来,无论是全新采购还是老设备利旧,戴尔科技的液冷解决方案都可以让你的数据中心焕发生机。深耕FPGA,戴尔结下产业应用累累硕果 在看完了液冷解决方案之后,Tom又带我来到了AI与工作站的展区。

    1.1K40发布于 2019-11-26
  • 来自专栏腾讯数据中心

    ​数据中心暖通架构发展趋势及未来液冷技术的思考

    未来,随着芯片功率密度的增加,传统的风冷散热已经接近极限,芯片级液冷散热已经不再是可忽视的问题。因此,在未来的暖通架构中,我们将关注如何支持液冷散热的需求。 关于液冷,我们是如何考虑的 第四个重要方向是液冷技术。在决定是否采用液冷技术时,我们需要考虑一些因素。 对于腾讯来说,由于拥有大量的风冷服务器和风冷机房,从部署和运维兼容性的角度来看,冷板式液冷技术是一个比较匹配的选择。 如果我们选择冷板液冷技术,那么液冷和风冷的功率占比就变得非常重要。 因此,对于一台服务器而言,液冷和风冷所占总功率的比例至关重要。不同类型的服务器具有不同的比例,例如,大数据存储服务器的液冷比例约为45%,而GPU训练服务器的液冷比例可高达85%。 在行业中已经存在一些采用液冷架构方案的案例,其中风冷和液冷共用设施冷源。这种架构能够支持100%的风冷模式。

    3.8K51编辑于 2023-08-03
  • 来自专栏光芯前沿

    OCP 2025:Ciena直插式液冷引领可插拔光模块散热技术突破

    ,聚焦带宽与功率密度攀升引发的散热瓶颈,提出OSFP-D2P直插式液冷解决方案,为下一代高功率光模块热管理提供了关键技术路径。 第一代为顶部冷板式风冷方案,依赖外部散热片通过干接触界面与模块贴合散热,热阻较高;第二代顶部冷板式液冷方案以液冷冷板替代散热片,利用液体优导热性提升效果,但未摆脱干接触界面的热阻损失。 为根治这一问题,Ciena提出第三代直插式液冷方案,核心创新在于将冷板直接集成至光模块本体,取消外部散热片与冷板,消除干接触界面的热阻损失。 模块插入主机卡时,电气连接与液冷连接同步完成,冷却液流入冷板吸收热量后回流,实现“即插即冷”。 笼体后部采用开放式结构,允许快接接头突出并在笼体后方盲配,且不遮挡面板气流,兼容混合液冷/空冷系统。

    81810编辑于 2025-11-18
  • 来自专栏AI与算力

    见证 AI 的变革时刻:高速光模块,以太网交换机和液冷技术

    英伟达GTC 2024大会发布GB200芯片及配套架构,通过提升GPU互联带宽、采用高性能光模块和交换机,并部署液冷技术,推动AI计算效能与数据中心能效升级。--通信百科公众号注! 同时发布全球首批端到端800G吞吐量的InfiniBand和以太网交换机,以及采用液冷技术的服务器解决方案,全方位推动AI计算性能革新和数据中心能效提升。 为了让这些计算快速运行,英伟达将采用液冷的设计方案,冷却液输入/输出水温分别为 25℃/45℃。 除了英伟达,AI 服务器厂商超微电脑预计将在24Q2内扩产液冷机架。 GB200 NVL72 液冷机架示意图 同时,国内产业链也在协同推进液冷技术的发展。 三大运营商在去年 6 月发布了《电信运营商液冷技术白皮书》,并提出 25 年及以后液冷在 50%以上项目规模应用的愿景。 电信运营商液冷技术规划 部分内容源引于“华泰证券”的研究报告

    1.3K10编辑于 2024-04-09
  • 来自专栏光芯前沿

    高能效光互连(200G LPO、慢而宽光互连、RF微波)与液冷系统

    在HotI 2025会议上,Arista Networks的Andy大佬从高效光学技术与液冷系统两大维度,全面解析当前行业内的技术进展、200G /lane LPO初步测试成果、面临挑战及解决方案。 二、液冷系统:AI数据中心的散热刚需与技术创新 ◆ 液冷交换机的必要性与核心优势 在液冷AI数据中心中,空调系统仅能处理背景热负荷,无法为交换机等设备提供有效散热,因此液冷交换机成为必然选择 液冷交换机的优势主要体现在三方面: 1. 降低整体功耗:移除风扇可节省总功率的5%-10%(具体比例取决于环境温度),直接优化数据中心的能效指标; 2. - 精准液冷连接:液冷快速接头在X、Y、Z三个维度均精准定位,保障液冷系统稳定运行。 - 兼容现有技术:内部保留标准ORv3架构,可复用ORv3 HPR2电源架及机架级管理系统。 Arista目前已计划将方案提交至OCP,希望通过推动高密度液冷交换机的标准化应用,避免出现大量客户定制化解决方案,降低制造商的研发与生产复杂度。

    70210编辑于 2025-09-03
  • 来自专栏科技云报道

    至简至强,新一代服务器的算力美学

    “算力“无界”需求推动了高端计算的发展,而液冷服务器是高端计算的关键基础设施。液冷服务器能够有效解决热管理问题,保持系统在高负载下的稳定运行。 宁畅B8000 算力至强,操作至简 “无界”的算力需求对液冷服务器提出了新的要求,既需要强大的性能,也需要简便的操作。这些宁畅B8000液冷整机柜服务器都可以达到。 据悉,冷板液冷技术的原理是将服务器内部的热量通过冷板传导到液体中,再通过泵将液体循环到冷却器进行冷却。 冷板液冷技术的散热效率高,能够有效降低服务器温度,从而提高性能。 B8000节点内液冷覆盖率超过90%,PUE(功耗比)可低至1.09,这基本上达到了冷板液冷的“极限”。 此外,冷板液冷技术能够在更小的空间内提供更高的散热能力,从而提高计算密度,进一步提升性能。 今年9月发布的《2023先进计算企业竞争力研究》白皮书显示,液冷产业加速发展,宁畅2023年上半年液冷服务器市占率增速位居第一。

    49710编辑于 2023-12-19
  • 来自专栏光芯前沿

    Supermicro&Micas协同发力:让CPO+液冷成为AI集群规模化标配

    的主题分享,聚焦AI数据中心面临的功耗与散热瓶颈,详解了共封装光学(CPO)与液冷技术的协同解决方案,为AI基础设施规模化部署提供了切实可行的路径。 ◆ 核心解决方案:CPO与液冷技术的协同创新 针对上述困境,Micas与Supermicro提出了“CPO+液冷”的一体化解决方案,从架构设计源头突破功耗壁垒,实现性能、可靠性与成本的三重优化 ① 液冷技术:千倍效率的散热革命 液冷技术的核心优势在于其远超风冷的散热效率——散热能力达到风冷的上千倍,能够精准应对高功耗芯片的散热需求。 当前主流ASIC单芯片功耗已达1500W,未来6000W级芯片的出现更让液冷成为必然选择。 从实际应用来看,Supermicro的B200液冷服务器相比同型号风冷产品,功耗降低幅度达5%。

    54110编辑于 2025-11-18
  • 来自专栏盛世宏博物联网

    液冷机房温湿度精准监控方案:从传感器矩阵部署到露点预警全链路设计

    液冷算力机房温湿度监控系统方案设计添加图片注释,不超过 140 字(可选)液冷算力机房(含冷板式、浸没式、喷淋式等)因高密度算力设备(单机柜功率常达 40-100kW)依赖液体介质高效散热,其温湿度环境呈现 “局部温差大、冷凝风险高、温湿度与液冷系统强耦合” 等特性。 联动液冷系统闭环控制:将温湿度数据与冷却液流量、温度、压力等参数融合,动态调节液冷机组运行策略,降低 PUE 至 1.1 以下。以太网温湿度传感器二、系统架构设计(分层适配液冷场景)1. 液冷系统协同:与冷源机组实时交互数据(如冷却液进口温度设定值),通过温湿度反馈动态优化机组运行策略,某浸没式液冷机房案例显示,可降低冷源能耗 12%。 校准周期:每 6 个月对传感器进行校准(液冷环境温度波动大,易导致精度偏移),优先采用现场校准仪(避免拆卸传感器影响液冷系统密封)。3.

    33110编辑于 2025-10-28
  • 来自专栏IT创事记

    3M助力阿里巴巴全球大规模液冷集群,全面践行“绿色科技”理念

    作为阿里巴巴绿色数据中心节能理念的核心“黑科技”,3M氟化冷却液助力浸没式液冷服务器集群,全程见证、并经受住了阿里巴巴2018年双11巨大的考验。 在阿里巴巴冬奥云数据中心使用3M氟化冷却液的浸没式液冷服务器集群,可以不再依赖风扇、空调这些低效方式散热,节能70%以上,使得数据中心的PUE值达到1.07,逼近了理论极限值1.0,大大提升了能源使用效率 据悉,阿里巴巴已经联手全球几十家合作伙伴,从芯片到主板到服务器整机,从光模块到箱体及运营管理,形成全球互联网行业的大规模商用液冷集群。

    70810编辑于 2022-06-17
领券