首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏云深知网络 可编程P4君

    液冷交换机探索之路

    本文将从政策和芯片角度剖析数据中心交换机引入液冷技术的必要性,就液冷技术不同方案的差异化,探讨锐捷在冷板式液冷交换机和浸没式液冷交换机的研发经验及成果。 液冷技术分类和优缺点 当前液冷技术主要分为单相液冷和两相液冷,锐捷在COBO的白皮书“Design Considerations of Optical Connectivity in a Co-Packaged 相较而言,单相液冷复杂度更低更易实现,且散热能力足够支撑数据中心IT设备,是当前阶段的平衡之选。 图3 数据中心IT设备主要散热方式 单相液冷分为冷板式液冷和浸没式液冷。 浸没式液冷交换机研发经验 近年来,各大公司在浸没式液冷数据中心方案上展开探索,锐捷网络在研发浸没式液冷交换机中也积累了较多经验,主要体现在浸没式液冷交换机的结构外观、风扇剪裁、材质兼容、SI特性(信号完整性 图7 32*100G 浸没式液冷数据中心接入交换机 图8 48*1G+4*10G 浸没式液冷管理网交换机 在2021年11月全球OCP峰会,锐捷网络正式发布64*400G冷板式液冷NPO交换机,满足数据中心和运营商网络的高可靠性要求

    2.1K30编辑于 2023-03-06
  • 来自专栏计算机视觉战队

    液冷GPU工作站「IW7210-4GTi」四卡+双路CPU液冷

    静思工作站 IW7210-4GTi 四卡+双路CPU液冷 | 液冷静音工作站 静思工作站 IW7210-4GTi 是思腾合力历时一年专为办公场景倾情打造的一款水冷GPU工作站 ,支持第二代 Intel

    1.4K20编辑于 2022-05-05
  • 浸没式液冷数据互联解决方案

    在数据中心浸没式液冷方案中,主设备浸没在特殊的液体中,使用传统的光模块或者有源光缆,经过长时间的浸没,液体可能会渗入光路中,从而使通信中断。 大成鹏通信隆重推出CIPanel浸没式液冷数据互联解决方案,不同于传统注胶AOC的解决方案,该解决方案是将主设备的接口通过铜缆延长扩展到液上,而后再通过传统光模块、有源光缆AOC、无源铜缆DAC实现数据互连 四:总结 大成鹏通信浸没式液冷数据互联解决方案CIPanel,完全避免了传统光互联产品可能因液体侵入而导致的阻塞光路从而中断通信的问题,极大提高可靠性的同时,兼顾便捷部署、维护、美观等特点

    37100编辑于 2024-07-28
  • 来自专栏大数据在线

    液冷数据中心,理想如何照进现实?

    就像近日的浪潮信息生态伙伴大会IPF2022上,浪潮信息率先行动,正式亮相亚洲最大液冷数据中心研发生产基地“天池”,更携手京东云联合发布天枢(ORS3000S)液冷整机柜服务器,为液冷数据中心的发展注入一股强力助推剂 例如,新建数据中心规划起点高,通常选择会比较容易,像冷板式、沉浸式液冷等方案均为不错的选择;但亦不能忽视很多已有数据中心的液冷改造难度,这部分数据中心往往是根据风冷模式来设计,如何降低这些数据中心的液冷改造成本就成为影响液冷普及推广的关键挑战 无疑,液冷数据中心现阶段的发展需要市场破局者,在强大研发能力和产品交付能力的基础上,携手产业链上下游合作伙伴,推动液冷标准的完善、产品的联合创新和解决方案的构建,从而让液冷数据中心真正实现理想照进现实。 在产品层面,浪潮信息充分考虑到市场上差异化需求,拥有包括冷板式液冷、热管式液冷、浸没式液冷等各类型的产品;以冷板式液冷数据中心产品为例,浪潮信息拥有从液冷机柜到紧凑型微模块、单排微模块、双排微模块等一系列模块化液冷数据中心产品 此外,浪潮信息还自主设计数据中心内外部的液冷冷却循环系统,实现液冷数据中心端到端交付。

    1.1K10编辑于 2022-04-06
  • 来自专栏6G

    液冷技术与电信从业者

    随着数据中心液冷方案进入主流视野,电信从业者亟需深入理解液冷技术特性。在ECOC等行业展会上,已出现运行于鱼缸气泡中的交换机与光模块。 液冷架构由多个部分组成,并且每个部分还可以继续细分,但本质上液冷架构可以描述为三个部分:热捕获,热交换,冷源。 液冷兴起的原因 从传统风冷向数据中心液冷的转变主要受人工智能和机器学习驱动。这些技术对计算能力提出了巨大需求,进而催生了对超高性能计算机芯片的需求。 面对如此高的功率密度,液冷正成为未来的解决方案。那么,液冷有哪些优势和类型? 液冷的优势源于其物理特性:液体是比气体(如空气)更好的热导体,具有更高的体积热容。 液冷系统的附带优势包括运行安静(液冷管道几乎无声,而风冷风扇噪音较大)和更紧凑的安装空间。液冷系统所需液体质量远小于风冷系统的设备和管道体积。

    46410编辑于 2025-02-07
  • 来自专栏计算机视觉战队

    Exxact公司提供液冷人工智能开发平台

    计算机视觉研究院专栏 Column of Computer Vision Institute 液冷人工智能开发平台! Exxact提供的新发布的液冷AI解决方案配备了两个最新的第四代Intel Xeon Scalable CPU,并通过两个NVIDIA A100 PCIe GPU加速,所有这些都是液冷的。 Exxact TensorEX TWS-194019223 是一款预制液冷5U机架式工作站,具有双英特尔至强可扩展6444Y CPU和4个NVIDIA A100 80GB NVLinked GPU,通过双 TensorEX TWS-167626740是可配置不同第四代英特尔至强可扩展CPU的可定制平台,并提供7个PCIe 5.0 x16插槽,支持多达4个液冷NVIDIA A100 80GB GPU。

    54920编辑于 2023-08-24
  • 来自专栏企鹅号快讯

    数据中心冷战:风冷未央 液冷已至

    目前,对于浸没液冷技术国内外很多厂商都都进行了研究,例如,IBM公司从20世纪70年代开始浸没液冷的研究,具有30多项机架式浸没液冷专利。美国的GRC开发了高沸点单相浸没的碳氢溶剂制冷系统。 另外,我国的一些企业也在研究开发相关浸没液冷技术,例如曙光,从2012年开始就对液冷服务器技术进行了探索和研究。 浸没液冷技术之所以受到众多厂商的青睐,主要是因为它突出的性能。 首先,液体的冷却能力是空气的1000-3000倍;其次,液冷可实现高密度、低噪音、低传热温差、自然冷却等优点;另外,浸没液冷的功率密度可超过每机柜体积100kW、噪音低于50dB、PUE低于1.2。 虽然浸没液冷技术有诸多的优势,但是目前却无法大面积的使用在已建数据中心中,因为如果采用浸没液冷方式的话,需要对原有的数据中心结构进行较大改造,而这对于数据中心运营商来说是一笔不小的成本,另外,许多热负荷较低的小型数据中心机房可能并没有必要采用液冷的必要 不过,浸没液冷技术的前景还是非常客观的,近几年,国内数据中心的建设如火如荼,并且数据中心正在向大型和超大型方面发展,液冷技术将会更好的发挥其技术优势。

    2K50发布于 2018-01-24
  • 来自专栏光芯前沿

    Accelink USA:低功耗LPO、LRO及液冷光模块

    三、液冷光模块方案 (一)技术优势 - 能效提升:双相浸没式冷却相较于空气冷却,能够显著降低数据中心的PUE。光模块直接浸没于冷却液中,通过液体相变进行散热,进一步优化了系统级能效。 - 液冷光模块:通过硬件设计创新,如MPO接口,与散热方案相结合,为数据中心能效提升提供了新的途径。未来,需要通过行业协同测试,如OCP标准适配,来验证其在多系统中的兼容性。

    1.1K10编辑于 2025-05-17
  • 来自专栏亿源通科技HYC

    液冷技术:迎接AIGC时代数据中心的散热挑战

    液冷技术的分类液冷系统根据液体与硬件直接的接触方式分为直接液冷和间接液冷,直接液冷就是液体与需要冷却的硬件组件直接接触达到冷却的目的,又可分为浸没式和喷淋式;间接液冷是指液体不与硬件直接接触,通过一个中介组件 冷板式液冷系统主要由冷却塔、冷量分配单元(CDU)、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成。 液冷产业链液冷产业链包括上游的产品零部件提供商、中游的液冷服务器提供商、下游的算力使用者。 一体化交付还是解耦式交付目前冷板式液冷服务器有三种交付模式,①IT设备侧仅交付液冷服务器;②IT侧交付“液冷服务器+液冷机柜”;③IT侧交付“液冷服务器+液冷机柜+CDU+二次侧管路”。 国内三大运营商发表液冷技术白皮书中提出液冷三年愿景,逐步开展液冷技术的验证、实验,将于2025年开展液冷技术的大规模应用,预计应用于50%以上数据项目,推动形成标准统一化、规模化,助推液冷解耦式交付。

    2.2K10编辑于 2024-08-15
  • 来自专栏液冷服务器

    东数西算下,液冷数据中心为何日趋重要?

    2021年11月,国家发改委表示,全国新建大型、超大型数据中心平均PUE降至1.3以下,全国枢纽节点进一步降至1.25以下。 随着液冷相关技术的日趋成熟,国内外许多公司开始为客户提供定制化的液冷技术解决方案,一些科技公司也逐步建设和部署了自己的液冷数据中心。 2021年11月,国家发改委、网信办、工信部、能源局联合印发《贯彻落实碳达峰碳中和目标要求推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》指出坚持集约化、绿色化、智能化建设,加快节能低碳技术研发推广 液冷方式分为冷板液冷和浸没式液冷,浸没式液冷方式又可分为相变浸没式液冷和非相变浸没式液冷。 冷板式液冷为间接接触型,浸没式液冷为直接接触型。 两相浸没式液冷的能耗低于单相浸没式液冷。数据中心浸没式液冷技术的能耗主要是由水泵和室外冷却设备驱动液体循环产生的,根据冷却液热交换过程中是否发生相变,可分为单相浸入液冷却和两相浸入液冷

    1.2K30编辑于 2023-02-28
  • 来自专栏Python项目实战

    数据中心节能:液冷 + AI 调度,到底是不是“真解法”?

    二、液冷不是新东西,只是以前“用不起、玩不转”1️⃣液冷到底在干嘛?别被名词吓到说白了就一句话:用液体,替代空气,把热带走。因为液体的导热能力,比空气高一个数量级以上。 常见的三种液冷方式:冷板式(Direct-to-Chip):冷却液直接贴着CPU/GPU流浸没式液冷:服务器直接“泡澡”后门换热(RearDoorHX):给风冷打补丁我个人的看法很明确:未来十年,真正的主流是 2️⃣液冷为什么突然“火”了?不是因为它多先进,而是因为:风冷真的快到物理极限了AIHPC大模型太吃功耗了PUE再压不下来,账就算不过来一句话总结:不是液冷多香,是风冷已经不行了。 三、但光有液冷,还远远不够如果你以为:“上了液冷,节能问题就解决了”那我可以很负责任地说一句:想多了。 六、液冷+AI调度,真正的价值在哪?

    17410编辑于 2026-01-19
  • 来自专栏CU技术社区

    从整机柜液冷到全产业生态,戴尔科技亮相全球顶级超算大会

    美国时间11月18日 科罗拉多州丹佛会展中心 美国时间11月18日,业界瞩目的SC19国际超算大会在科罗拉多州丹佛会展中心举行。 然而最让人兴奋的,还是11月18日晚间7点的Gala开场活动。也是从这一刻起,SC19大会的展区部分正式开放,来自全球的政府部门、高校与科研机构、解决方案提供商汇聚一堂,为到场嘉宾展开一场科技盛宴。 最近几年,SC大会的展区上总少不了液冷的身影,这一方面是由于液冷技术的发展,另一方面也是传统风冷面对超级计算机这种性能“怪兽”有点力不从心。 虽然相对于风冷平台来说,液冷设备的初期采购成本相对贵一些,但是对于一台服务器来说,一般的生命周期都要在3-5年,而这么长的时间内液冷所提供的散热效率和节能优势,已经低于风冷平台的采购成本。 在算明白这本“经济账”之后,越来越多的超算用户开始讲目光聚焦在液冷平台上来,TOP500榜单中排名靠前的多套系统都采用液冷散热,比如中国顶尖的神威·太湖之光和天河二号A。

    1.1K40发布于 2019-11-26
  • 英特尔携中国生态伙伴发布双路冷板式全域液冷服务器

    2025年11月19日,重庆——在英特尔技术创新与产业生态大会上,英特尔携手本地生态伙伴——新华三、英维克、忆联及国内领先内存厂商,发布了基于英特尔® 至强® 6900系列性能核处理器的双路冷板式全域液冷服务器 英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立表示:“AI驱动着高效散热和先进液冷技术的演进。 从CPU、内存,再到硬盘,这款双路冷板式全域液冷服务器在多个维度上全面保障着数据中心的散热效率与长期稳定。这首先得益于英特尔在CPU与液冷技术上的协同推进。 新华三将与合作伙伴携手,创新和普及更高效、更协同的数据中心液冷解决方案,共创绿色数字新纪元。” 英维克副总裁王铁旺表示:“全域液冷服务器的推出,是英维克开启数据中心绿色革命序章的重要一步。 作为长期投入中国市场、积极支持本地生态伙伴发展的重要力量,英特尔与本地独立硬件供应商、OxM等构建的紧密协作还有很多,包括“液冷创新加速计划”、成立UQD互插互换联盟,积极推动冷板液冷团体标准制定等。

    24110编辑于 2026-03-20
  • 来自专栏光芯前沿

    Supermicro&Micas协同发力:让CPO+液冷成为AI集群规模化标配

    ◆ 核心解决方案:CPO与液冷技术的协同创新 针对上述困境,Micas与Supermicro提出了“CPO+液冷”的一体化解决方案,从架构设计源头突破功耗壁垒,实现性能、可靠性与成本的三重优化 ① 液冷技术:千倍效率的散热革命 液冷技术的核心优势在于其远超风冷的散热效率——散热能力达到风冷的上千倍,能够精准应对高功耗芯片的散热需求。 当前主流ASIC单芯片功耗已达1500W,未来6000W级芯片的出现更让液冷成为必然选择。 在测试环节,双方建立了L11节点级与L12集群级的双重测试标准。 L11节点级测试通过全自动化量产测试流程,完成超过30项严格检测,包括配置验证、应用加载等,测试报告实时生成;L12集群级测试则覆盖56种以上工作负载与基准测试,涵盖NVQual、GPU验证、NCCL、

    64410编辑于 2025-11-18
  • 来自专栏腾讯数据中心

    ​数据中心暖通架构发展趋势及未来液冷技术的思考

    未来,随着芯片功率密度的增加,传统的风冷散热已经接近极限,芯片级液冷散热已经不再是可忽视的问题。因此,在未来的暖通架构中,我们将关注如何支持液冷散热的需求。 关于液冷,我们是如何考虑的 第四个重要方向是液冷技术。在决定是否采用液冷技术时,我们需要考虑一些因素。 对于腾讯来说,由于拥有大量的风冷服务器和风冷机房,从部署和运维兼容性的角度来看,冷板式液冷技术是一个比较匹配的选择。 如果我们选择冷板液冷技术,那么液冷和风冷的功率占比就变得非常重要。 因此,对于一台服务器而言,液冷和风冷所占总功率的比例至关重要。不同类型的服务器具有不同的比例,例如,大数据存储服务器的液冷比例约为45%,而GPU训练服务器的液冷比例可高达85%。 在行业中已经存在一些采用液冷架构方案的案例,其中风冷和液冷共用设施冷源。这种架构能够支持100%的风冷模式。

    4K51编辑于 2023-08-03
  • 来自专栏光芯前沿

    OCP 2025:Ciena直插式液冷引领可插拔光模块散热技术突破

    ,聚焦带宽与功率密度攀升引发的散热瓶颈,提出OSFP-D2P直插式液冷解决方案,为下一代高功率光模块热管理提供了关键技术路径。 第一代为顶部冷板式风冷方案,依赖外部散热片通过干接触界面与模块贴合散热,热阻较高;第二代顶部冷板式液冷方案以液冷冷板替代散热片,利用液体优导热性提升效果,但未摆脱干接触界面的热阻损失。 为根治这一问题,Ciena提出第三代直插式液冷方案,核心创新在于将冷板直接集成至光模块本体,取消外部散热片与冷板,消除干接触界面的热阻损失。 模块插入主机卡时,电气连接与液冷连接同步完成,冷却液流入冷板吸收热量后回流,实现“即插即冷”。 笼体后部采用开放式结构,允许快接接头突出并在笼体后方盲配,且不遮挡面板气流,兼容混合液冷/空冷系统。

    1K10编辑于 2025-11-18
  • 来自专栏AI与算力

    见证 AI 的变革时刻:高速光模块,以太网交换机和液冷技术

    英伟达GTC 2024大会发布GB200芯片及配套架构,通过提升GPU互联带宽、采用高性能光模块和交换机,并部署液冷技术,推动AI计算效能与数据中心能效升级。--通信百科公众号注! 同时发布全球首批端到端800G吞吐量的InfiniBand和以太网交换机,以及采用液冷技术的服务器解决方案,全方位推动AI计算性能革新和数据中心能效提升。 为了让这些计算快速运行,英伟达将采用液冷的设计方案,冷却液输入/输出水温分别为 25℃/45℃。 除了英伟达,AI 服务器厂商超微电脑预计将在24Q2内扩产液冷机架。 GB200 NVL72 液冷机架示意图 同时,国内产业链也在协同推进液冷技术的发展。 三大运营商在去年 6 月发布了《电信运营商液冷技术白皮书》,并提出 25 年及以后液冷在 50%以上项目规模应用的愿景。 电信运营商液冷技术规划 部分内容源引于“华泰证券”的研究报告

    1.4K10编辑于 2024-04-09
  • 来自专栏光芯前沿

    从空冷到浸没式液冷:AI数据中心热管理与光模块技术的协同革新

    (LPO)与浸没式液冷光学解决方案的技术突破,为AI时代数据中心的高效运行提供了关键支撑。 二、冷却技术的迭代之路:从空冷到浸没式液冷的进化 为应对热管理挑战,数据中心冷却技术经历了从传统空冷到精准液冷的逐步升级,不同技术路径各有优劣,也推动着行业向更高效、更可靠的方向演进。 (二)浸没式液冷光学解决方案:突破场景适配瓶颈 针对浸没式液冷的核心挑战,Formerica通过系统性测试与设计优化,构建了成熟的浸没式光学解决方案,关键突破集中在材料兼容性与信号完整性两大维度 可靠性测试同样表现优异:100G QSFP28 SR4 iAOC在70℃、90%置信水平下的平均无故障时间(MTBF)达到50年;11个100G浸没式有源光尾纤样品,在3.3V电压、1.5米液深条件下, 从传统空冷到冷板液冷,再到浸没式液冷,冷却技术的演进核心是追求更高的散热效率与更低的TCO;而LPO技术与浸没式光学解决方案的创新,则为高功耗、高密度场景提供了关键的通信支撑。

    78010编辑于 2025-12-24
  • 没电谈什么AI?8000 亿的隐形战场:当所有的人都在抢GPU,真正的赢家在挖矿和发电

    液冷成为刚需: 随着机柜功率密度突破40kW,风冷已达极限。中国液冷市场预计将以42%的年复合增长率狂飙,渗透率在2030年将达到45%。 铜与铝的复兴: AI是吞噬金属的巨兽。 液冷(Liquid Cooling)不再是选修课,而是必修课。 报告预测,中国液冷市场规模在2025-2030年间将以惊人的42%复合增长率爆发。 到2030年,液冷在新增数据中心的渗透率将达到45%。 冷板式液冷(Cold Plate): 目前的主流,占90%市场,主要用于高密度计算集群。 浸没式液冷(Immersion): 将服务器完全浸泡在冷却液中,PUE(能源使用效率)可低至1.1以下,是未来的终极方案。 注:深蓝色代表风冷,浅蓝色代表液冷液冷的增长斜率极其陡峭。 AI基础设施相关股票估值表 (引用自报告 Page 11, Exhibit 17) - 06 - 结语 AI的浪潮不仅仅属于写代码的人,也不仅仅属于设计芯片的人。

    38310编辑于 2026-01-28
  • 来自专栏光芯前沿

    高能效光互连(200G LPO、慢而宽光互连、RF微波)与液冷系统

    在HotI 2025会议上,Arista Networks的Andy大佬从高效光学技术与液冷系统两大维度,全面解析当前行业内的技术进展、200G /lane LPO初步测试成果、面临挑战及解决方案。 二、液冷系统:AI数据中心的散热刚需与技术创新 ◆ 液冷交换机的必要性与核心优势 在液冷AI数据中心中,空调系统仅能处理背景热负荷,无法为交换机等设备提供有效散热,因此液冷交换机成为必然选择 液冷交换机的优势主要体现在三方面: 1. 降低整体功耗:移除风扇可节省总功率的5%-10%(具体比例取决于环境温度),直接优化数据中心的能效指标; 2. - 精准液冷连接:液冷快速接头在X、Y、Z三个维度均精准定位,保障液冷系统稳定运行。 - 兼容现有技术:内部保留标准ORv3架构,可复用ORv3 HPR2电源架及机架级管理系统。 Arista目前已计划将方案提交至OCP,希望通过推动高密度液冷交换机的标准化应用,避免出现大量客户定制化解决方案,降低制造商的研发与生产复杂度。

    77010编辑于 2025-09-03
领券