首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏计算机视觉战队

    液冷GPU工作站「IW7210-4GTi」四卡+双路CPU液冷

    3090 CPU+GPU全水冷静音工作站——IW7210-4GTi。 静思工作站 IW7210-4GTi 四卡+双路CPU液冷 | 液冷静音工作站 静思工作站 IW7210-4GTi 是思腾合力历时一年专为办公场景倾情打造的一款水冷GPU工作站 ,支持第二代 Intel ® Xeon® Scalable可扩展处理器,单CPU性能提升高达36%,支持4TB大内存,具有高性能、可扩展性强、性能稳定的优点。 GPU水冷散热釆用独立封闭循环水路,支持1-4卡灵活选配;其它组件均支持按需选配, 为客户提供多样性选择。钣金结构强度高,GPU卡有独立的支架设计,可保证运输过程的可靠性。 IW7210-4GTi 产品技术规格 使用场景及应用案例 新石器慧通 | 机器人  新石器慧通是无人车的研发、制造及服务提供商。

    1.4K20编辑于 2022-05-05
  • 来自专栏云深知网络 可编程P4君

    液冷交换机探索之路

    本文将从政策和芯片角度剖析数据中心交换机引入液冷技术的必要性,就液冷技术不同方案的差异化,探讨锐捷在冷板式液冷交换机和浸没式液冷交换机的研发经验及成果。 图4 交换机外观变化 其次,设备的纵深会比传统交换机要长,最长可以达到800mm。 4.SI特性(信号完整性) 由于浸没式液冷交换机会与液体直接接触,SI(Signal Integrality,信号完整性)会受到液体影响。 所以对PCB板有以下特殊的要求:(1)尽量规避关键型号走表层;(2)内层信号不受影响,低速信号走表层无需过多关注;(3)高速信号必须走表层,要提高阻抗设计;(4)BGA和连接器的扇出尽量减少表层走线长度 图7 32*100G 浸没式液冷数据中心接入交换机 图8 48*1G+4*10G 浸没式液冷管理网交换机 在2021年11月全球OCP峰会,锐捷网络正式发布64*400G冷板式液冷NPO交换机,满足数据中心和运营商网络的高可靠性要求

    2.1K30编辑于 2023-03-06
  • 浸没式液冷数据互联解决方案

    在数据中心浸没式液冷方案中,主设备浸没在特殊的液体中,使用传统的光模块或者有源光缆,经过长时间的浸没,液体可能会渗入光路中,从而使通信中断。 大成鹏通信隆重推出CIPanel浸没式液冷数据互联解决方案,不同于传统注胶AOC的解决方案,该解决方案是将主设备的接口通过铜缆延长扩展到液上,而后再通过传统光模块、有源光缆AOC、无源铜缆DAC实现数据互连 4、 美观布线:液上固定面板可以定制固定方式,大小及形状,使得布线整齐划一。 支持A端和B端1:1连接,同时支持Breakout定制,例如:A端1个QSFP28 Breakout 成B端4个SFP28屏蔽罩端口,反之亦可行。 四:总结 大成鹏通信浸没式液冷数据互联解决方案CIPanel,完全避免了传统光互联产品可能因液体侵入而导致的阻塞光路从而中断通信的问题,极大提高可靠性的同时,兼顾便捷部署、维护、美观等特点

    37100编辑于 2024-07-28
  • 来自专栏大数据在线

    液冷数据中心,理想如何照进现实?

    就像近日的浪潮信息生态伙伴大会IPF2022上,浪潮信息率先行动,正式亮相亚洲最大液冷数据中心研发生产基地“天池”,更携手京东云联合发布天枢(ORS3000S)液冷整机柜服务器,为液冷数据中心的发展注入一股强力助推剂 例如,新建数据中心规划起点高,通常选择会比较容易,像冷板式、沉浸式液冷等方案均为不错的选择;但亦不能忽视很多已有数据中心的液冷改造难度,这部分数据中心往往是根据风冷模式来设计,如何降低这些数据中心的液冷改造成本就成为影响液冷普及推广的关键挑战 无疑,液冷数据中心现阶段的发展需要市场破局者,在强大研发能力和产品交付能力的基础上,携手产业链上下游合作伙伴,推动液冷标准的完善、产品的联合创新和解决方案的构建,从而让液冷数据中心真正实现理想照进现实。 在产品层面,浪潮信息充分考虑到市场上差异化需求,拥有包括冷板式液冷、热管式液冷、浸没式液冷等各类型的产品;以冷板式液冷数据中心产品为例,浪潮信息拥有从液冷机柜到紧凑型微模块、单排微模块、双排微模块等一系列模块化液冷数据中心产品 此外,浪潮信息还自主设计数据中心内外部的液冷冷却循环系统,实现液冷数据中心端到端交付。

    1.1K10编辑于 2022-04-06
  • 来自专栏6G

    液冷技术与电信从业者

    液冷架构由多个部分组成,并且每个部分还可以继续细分,但本质上液冷架构可以描述为三个部分:热捕获,热交换,冷源。 AI性能越强大,能耗越高——例如,训练GPT-4模型耗电超过50吉瓦时,约占加州年发电量的0.02%。许多行业专家已发出警告,指出AI正在将世界推向能源危机。 功率密度需求的提升正推动设施采用企业级液冷方案。据高盛预测,数据中心目前消耗全球总电力的1-2%,到2030年这一比例将上升至3-4%。 面对如此高的功率密度,液冷正成为未来的解决方案。那么,液冷有哪些优势和类型? 液冷的优势源于其物理特性:液体是比气体(如空气)更好的热导体,具有更高的体积热容。 液冷系统的附带优势包括运行安静(液冷管道几乎无声,而风冷风扇噪音较大)和更紧凑的安装空间。液冷系统所需液体质量远小于风冷系统的设备和管道体积。

    46410编辑于 2025-02-07
  • 来自专栏计算机视觉战队

    Exxact公司提供液冷人工智能开发平台

    计算机视觉研究院专栏 Column of Computer Vision Institute 液冷人工智能开发平台! Exxact提供的新发布的液冷AI解决方案配备了两个最新的第四代Intel Xeon Scalable CPU,并通过两个NVIDIA A100 PCIe GPU加速,所有这些都是液冷的。 Exxact TensorEX TWS-194019223 是一款预制液冷5U机架式工作站,具有双英特尔至强可扩展6444Y CPU和4个NVIDIA A100 80GB NVLinked GPU,通过双 TensorEX TWS-167626740是可配置不同第四代英特尔至强可扩展CPU的可定制平台,并提供7个PCIe 5.0 x16插槽,支持多达4液冷NVIDIA A100 80GB GPU。

    54920编辑于 2023-08-24
  • 来自专栏企鹅号快讯

    数据中心冷战:风冷未央 液冷已至

    目前,对于浸没液冷技术国内外很多厂商都都进行了研究,例如,IBM公司从20世纪70年代开始浸没液冷的研究,具有30多项机架式浸没液冷专利。美国的GRC开发了高沸点单相浸没的碳氢溶剂制冷系统。 另外,我国的一些企业也在研究开发相关浸没液冷技术,例如曙光,从2012年开始就对液冷服务器技术进行了探索和研究。 浸没液冷技术之所以受到众多厂商的青睐,主要是因为它突出的性能。 首先,液体的冷却能力是空气的1000-3000倍;其次,液冷可实现高密度、低噪音、低传热温差、自然冷却等优点;另外,浸没液冷的功率密度可超过每机柜体积100kW、噪音低于50dB、PUE低于1.2。 虽然浸没液冷技术有诸多的优势,但是目前却无法大面积的使用在已建数据中心中,因为如果采用浸没液冷方式的话,需要对原有的数据中心结构进行较大改造,而这对于数据中心运营商来说是一笔不小的成本,另外,许多热负荷较低的小型数据中心机房可能并没有必要采用液冷的必要 不过,浸没液冷技术的前景还是非常客观的,近几年,国内数据中心的建设如火如荼,并且数据中心正在向大型和超大型方面发展,液冷技术将会更好的发挥其技术优势。

    2K50发布于 2018-01-24
  • 来自专栏光芯前沿

    Accelink USA:低功耗LPO、LRO及液冷光模块

    - 800G FR4光模块:针对短、中、长距离通道进行了测试,均展现出良好的误码率数据,平均BER为4.13e-10。 2. 三、液冷光模块方案 (一)技术优势 - 能效提升:双相浸没式冷却相较于空气冷却,能够显著降低数据中心的PUE。光模块直接浸没于冷却液中,通过液体相变进行散热,进一步优化了系统级能效。 - 液冷光模块:通过硬件设计创新,如MPO接口,与散热方案相结合,为数据中心能效提升提供了新的途径。未来,需要通过行业协同测试,如OCP标准适配,来验证其在多系统中的兼容性。

    1.1K10编辑于 2025-05-17
  • 来自专栏亿源通科技HYC

    液冷技术:迎接AIGC时代数据中心的散热挑战

    液冷技术的分类液冷系统根据液体与硬件直接的接触方式分为直接液冷和间接液冷,直接液冷就是液体与需要冷却的硬件组件直接接触达到冷却的目的,又可分为浸没式和喷淋式;间接液冷是指液体不与硬件直接接触,通过一个中介组件 冷板式液冷系统主要由冷却塔、冷量分配单元(CDU)、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成。 液冷产业链液冷产业链包括上游的产品零部件提供商、中游的液冷服务器提供商、下游的算力使用者。 一体化交付还是解耦式交付目前冷板式液冷服务器有三种交付模式,①IT设备侧仅交付液冷服务器;②IT侧交付“液冷服务器+液冷机柜”;③IT侧交付“液冷服务器+液冷机柜+CDU+二次侧管路”。 国内三大运营商发表液冷技术白皮书中提出液冷三年愿景,逐步开展液冷技术的验证、实验,将于2025年开展液冷技术的大规模应用,预计应用于50%以上数据项目,推动形成标准统一化、规模化,助推液冷解耦式交付。

    2.2K10编辑于 2024-08-15
  • 来自专栏液冷服务器

    东数西算下,液冷数据中心为何日趋重要?

    1、内蒙古呼和浩特 培育以大数据、云计算为特色的电子信息技术产业集群,实施高性能计算机算力翻番计划,先后建成4个超级计算机应用平台,实现全国最高性能运算总能力和规模位居全国前列。 4、成渝地区 定位国家超算中心,建设成渝综合科学中心(兴隆湖)和西部科学城(成都),强化天府新区创新源头功能。 全国新建大型、超大型数据中心平均用电效率降至1.3以下,全国中心节点进一步降至1.25以下,绿色低碳水平达到4A以上。 同时,单个硅立方机柜的功率密度可达160kW,是传统风冷数据中心的4-5倍,能效比提升30%。 4、无视海拔高度和地域差异,余热同时创造经济价值 由于液体的比热容不受海拔高度和气压的影响,可以保持较高的散热效率,从而保证运行高度数据中心的效率和性能。

    1.2K30编辑于 2023-02-28
  • 来自专栏Python项目实战

    数据中心节能:液冷 + AI 调度,到底是不是“真解法”?

    二、液冷不是新东西,只是以前“用不起、玩不转”1️⃣液冷到底在干嘛?别被名词吓到说白了就一句话:用液体,替代空气,把热带走。因为液体的导热能力,比空气高一个数量级以上。 常见的三种液冷方式:冷板式(Direct-to-Chip):冷却液直接贴着CPU/GPU流浸没式液冷:服务器直接“泡澡”后门换热(RearDoorHX):给风冷打补丁我个人的看法很明确:未来十年,真正的主流是 2️⃣液冷为什么突然“火”了?不是因为它多先进,而是因为:风冷真的快到物理极限了AIHPC大模型太吃功耗了PUE再压不下来,账就算不过来一句话总结:不是液冷多香,是风冷已经不行了。 三、但光有液冷,还远远不够如果你以为:“上了液冷,节能问题就解决了”那我可以很负责任地说一句:想多了。 六、液冷+AI调度,真正的价值在哪?

    17410编辑于 2026-01-19
  • 来自专栏CU技术社区

    从整机柜液冷到全产业生态,戴尔科技亮相全球顶级超算大会

    最近几年,SC大会的展区上总少不了液冷的身影,这一方面是由于液冷技术的发展,另一方面也是传统风冷面对超级计算机这种性能“怪兽”有点力不从心。 PowerEdge C6420 PowerEdge C6420是面向高性能计算的高密度产品,它最大的特点就是在一个超高密度的2U机箱中提供多达4台独立的热插拔双路服务器,相当于在单位空间内为用户提供了充足的计算 虽然相对于风冷平台来说,液冷设备的初期采购成本相对贵一些,但是对于一台服务器来说,一般的生命周期都要在3-5年,而这么长的时间内液冷所提供的散热效率和节能优势,已经低于风冷平台的采购成本。 在算明白这本“经济账”之后,越来越多的超算用户开始讲目光聚焦在液冷平台上来,TOP500榜单中排名靠前的多套系统都采用液冷散热,比如中国顶尖的神威·太湖之光和天河二号A。 这样一来,无论是全新采购还是老设备利旧,戴尔科技的液冷解决方案都可以让你的数据中心焕发生机。深耕FPGA,戴尔结下产业应用累累硕果 在看完了液冷解决方案之后,Tom又带我来到了AI与工作站的展区。

    1.1K40发布于 2019-11-26
  • 来自专栏腾讯数据中心

    ​数据中心暖通架构发展趋势及未来液冷技术的思考

    4届中国数据中心绿色能源大会——主旨论坛“跨界融合 智驱未来”上,腾讯数据中心首席架构师林志勇老师以“数据中心暖通架构发展趋势及未来液冷技术的思考”为题发表演讲。 关于液冷,我们是如何考虑的 第四个重要方向是液冷技术。在决定是否采用液冷技术时,我们需要考虑一些因素。 对于腾讯来说,由于拥有大量的风冷服务器和风冷机房,从部署和运维兼容性的角度来看,冷板式液冷技术是一个比较匹配的选择。 如果我们选择冷板液冷技术,那么液冷和风冷的功率占比就变得非常重要。 因此,对于一台服务器而言,液冷和风冷所占总功率的比例至关重要。不同类型的服务器具有不同的比例,例如,大数据存储服务器的液冷比例约为45%,而GPU训练服务器的液冷比例可高达85%。 在行业中已经存在一些采用液冷架构方案的案例,其中风冷和液冷共用设施冷源。这种架构能够支持100%的风冷模式。

    4K51编辑于 2023-08-03
  • 来自专栏光芯前沿

    OCP 2025:Ciena直插式液冷引领可插拔光模块散热技术突破

    第一代为顶部冷板式风冷方案,依赖外部散热片通过干接触界面与模块贴合散热,热阻较高;第二代顶部冷板式液冷方案以液冷冷板替代散热片,利用液体优导热性提升效果,但未摆脱干接触界面的热阻损失。 模块插入主机卡时,电气连接与液冷连接同步完成,冷却液流入冷板吸收热量后回流,实现“即插即冷”。 19英寸1RU机架中,可配置4个1x4集群笼体(上下各16个端口)实现32个OSFP端口,或3个1x6集群笼体(上下各18个端口)提升至36个端口,适配数据中心高密度部署需求。 笼体后部采用开放式结构,允许快接接头突出并在笼体后方盲配,且不遮挡面板气流,兼容混合液冷/空冷系统。 现场展示的原型系统采用1x4集群布局,包含两个1x4集群笼体、对应集群歧管、泵体、储液罐与散热器,直观演示模块插拔操作——从用户视角,OSFP-D2P插拔流程与标准OSFP模块完全一致,连接过程干燥清洁

    1K10编辑于 2025-11-18
  • 来自专栏科技云报道

    至简至强,新一代服务器的算力美学

    比如,GPT-4 语言模型需要 175 PB 的存储空间和 1.56 万亿个参数,其训练需要耗费 100 万台GPU一年的时间。如此庞大的算力需求,对服务器提出了更高的要求。 “算力“无界”需求推动了高端计算的发展,而液冷服务器是高端计算的关键基础设施。液冷服务器能够有效解决热管理问题,保持系统在高负载下的稳定运行。 B8000节点内液冷覆盖率超过90%,PUE(功耗比)可低至1.09,这基本上达到了冷板液冷的“极限”。 此外,冷板液冷技术能够在更小的空间内提供更高的散热能力,从而提高计算密度,进一步提升性能。 采用了冷板液冷技术的B8000整机柜服务器,单节点可支持两颗英特尔至强第五代可拓展处理器,核心温度下降超过15度,算力性能提升10%,单柜功率上限可达100kW,比传统风冷整机柜提高了3-4倍。 今年9月发布的《2023先进计算企业竞争力研究》白皮书显示,液冷产业加速发展,宁畅2023年上半年液冷服务器市占率增速位居第一。

    52710编辑于 2023-12-19
  • 来自专栏AI与算力

    见证 AI 的变革时刻:高速光模块,以太网交换机和液冷技术

    同时发布全球首批端到端800G吞吐量的InfiniBand和以太网交换机,以及采用液冷技术的服务器解决方案,全方位推动AI计算性能革新和数据中心能效提升。 其中 Quantum-X800 相比上一代,使用 SHARPv4下的带宽容量提高 5 倍、网络计算能力增加 9 倍至 14.4TFlops。 为了让这些计算快速运行,英伟达将采用液冷的设计方案,冷却液输入/输出水温分别为 25℃/45℃。 除了英伟达,AI 服务器厂商超微电脑预计将在24Q2内扩产液冷机架。 GB200 NVL72 液冷机架示意图 同时,国内产业链也在协同推进液冷技术的发展。 三大运营商在去年 6 月发布了《电信运营商液冷技术白皮书》,并提出 25 年及以后液冷在 50%以上项目规模应用的愿景。 电信运营商液冷技术规划 部分内容源引于“华泰证券”的研究报告

    1.4K10编辑于 2024-04-09
  • 来自专栏用户9688177的专栏

    不同浓度乙二醇冷却液对散热性能影响的研究

    图2 液冷散热器实物图 1 液冷散热器散热性能分析 流体流过固体表面时,流体与固体间的热量交换称为对流传热,是液冷散热器主要的换热形式。对流换热由牛顿冷却公式计算。 (3)           由努塞尔数可得对流换热系数求解: (4) 因此,只需要求得努塞尔数即可计算出管内的对流换热系数。 (6)                (7) 由式3、4、5、6可得总换热系数如下式   (8) 从式8可得以下结论:流速越大,换热系数越大;动力粘度越大,换热系数越小。 冷却液以4m/s的速度流入直径为6mm流道的液冷散热中,分别计算表1中4种不同乙二醇浓度冷却液的对流换热系数。计算结果如表2所示。 表2不同浓度乙二醇和水的对流换热系数 3 试验测试 在散热功率、流速、进口温度、液冷散热器都相同的情况下,通过改变冷却液中乙二醇的浓度,通过试验测试,可以得到不同的液冷散热器的最高温度和温升情况。

    7.4K30编辑于 2022-05-20
  • 来自专栏光芯前沿

    高能效光互连(200G LPO、慢而宽光互连、RF微波)与液冷系统

    4)慢而宽光学技术的特点 以50Gb NRZ(不归零码)技术为例,慢宽光学的核心是通过“逆齿轮箱”(inverse gearbox)将高速通道转换为低速通道(其他方案还包括25Gb、4Gb 二、液冷系统:AI数据中心的散热刚需与技术创新 ◆ 液冷交换机的必要性与核心优势 在液冷AI数据中心中,空调系统仅能处理背景热负荷,无法为交换机等设备提供有效散热,因此液冷交换机成为必然选择 - 高设备容纳量:可容纳最多16个2U交换机刀片(总320U有效负载空间),同时兼容4U电源架、4U管理交换机、4U配线架。 - 精准液冷连接:液冷快速接头在X、Y、Z三个维度均精准定位,保障液冷系统稳定运行。 - 兼容现有技术:内部保留标准ORv3架构,可复用ORv3 HPR2电源架及机架级管理系统。 - 有效负载:总320U有效负载空间,可配置16个2U交换机、4U光纤配线架、4U带外/管理交换机、4U电源供应器等。

    76610编辑于 2025-09-03
  • 来自专栏光芯前沿

    Supermicro&Micas协同发力:让CPO+液冷成为AI集群规模化标配

    ◆ 核心解决方案:CPO与液冷技术的协同创新 针对上述困境,Micas与Supermicro提出了“CPO+液冷”的一体化解决方案,从架构设计源头突破功耗壁垒,实现性能、可靠性与成本的三重优化 ① 液冷技术:千倍效率的散热革命 液冷技术的核心优势在于其远超风冷的散热效率——散热能力达到风冷的上千倍,能够精准应对高功耗芯片的散热需求。 当前主流ASIC单芯片功耗已达1500W,未来6000W级芯片的出现更让液冷成为必然选择。 这一创新设计不仅减少了可插拔模块的使用,更实现了三大核心价值: 功耗方面,CPO交换机相比同规格传统交换机功耗降低超50%——以Micas TH5系列为例,128端口的×400G FR4传统可插拔 400G DR4光模块功耗为3267瓦,而CPO 400G FR4仅为1626瓦,功耗节省达50.23%。

    64310编辑于 2025-11-18
  • 来自专栏Alter聊科技

    数据中心的能耗焦虑, 到底有没有最优解?

    毕竟在数字经济的时代,有一个著名的经济学解释,即算力上每投入一元,将带动3-4元的经济产出,“性价比”远高于传统的农牧业和工业生产。 现实的情况却并不乐观。 可以看到的是,液冷技术的出现和应用,在很大程度上让计算和散热跳出了“囚徒困境”,对风冷降维打击的综合优势,也让液冷技术被不少人捧上神坛。 然而和很多新技术一样,液冷方案同样存在天然短板:冷却液的价格堪比茅台,无形中增加了散热的硬性成本;液冷技术对数据中心的机房环境要求苛刻,重新改造的成本较高;液冷技术降低了PUE,运营成本却难言优势…… 液冷是各种散热方案中毋庸置疑的翘楚,却也要考虑到现实的考量。 04 写在最后 根据赛迪顾问的预测,2025年中国浸没式液冷数据中心的市场规模将超过526亿元,市场份额有望突破40%。 站在行业的立场上,液冷散热的高速普及不失为一个好消息。

    76630编辑于 2023-01-13
领券