据IDC预测,2023-2028年中国液冷服务器市场年均复合增速将达到45.8%,2028年市场规模将突破102亿美元。然而高速奔跑的背后,冷却与供电的压力也在加剧——从数据上看,2025 年中国算力规模跃居全球第二,智能算力规模达到 1037.3 EFLOPS,以43%的增速领跑全球。
“未来,AI算力和单机柜功耗都将加速攀升,这将对智算中心基础设施带来颠覆性的变革。为了高质量地匹配冷却与供电需求,液冷基础设施的创新与应用成为关键。”在施耐德电气北京站卡车巡展现场,施耐德电气关键电源业务IMDC及边缘计算产品经理汤熠表示。

液冷:算力生态的关键变量
在传统数据中心中,机柜功率密度通常在5kW到10kW之间,依靠传统风冷就能满足散热需求。但在AI时代,这个数字跃升至60-120 kW,甚至更高。“未来超过50kW的机柜基本都会配备液冷系统,这是一个全新的赛道。”汤熠表示。
但液冷远不是“换一种散热方式”这么简单。它横跨材料兼容性、系统集成、运维与回收的全链路,任何环节的缺口都可能演变为系统性风险。
在展示环节中汤熠介绍到,这样的主管路跟家用装修的管路是一致的,去离子水或超纯水在泵的驱动下进入CDU,通过与室外冷源交换热量,再经分水器分流至每一个机柜。每个机柜都配置了两个机柜分水单元(Manifold),通过快速接头与服务器相连,每台服务器又拥有独立的进出水口,从而构成一条完整的冷热水循环链路。

他以一个1 MW级的液冷项目举例,其整体投资约在150万至250万元之间。其中,CDU的成本仅占10%至20%,而剩余近八成的投入往往用于管网铺设、快速接头及机柜级分水单元等环节。这表明,液冷系统的挑战并非单台设备的性能,而是在于如何实现整套系统的高效协同运转。
施耐德电气的价值,正是在于将这套复杂的工程化体系封装为“交钥匙方案”。从管路铺设到快速接头,从分水单元到外部冷源,甚至到与供配电系统的深度耦合,施耐德电气都能实现统一设计与端到端交付。对用户而言,这不仅大幅降低了多方集成的风险,也将原本冗长的建设周期缩短至数周,让智算中心更快从蓝图走向现实。
价值:风液融合的协同优势
目前,市场上存在一个备受关注的问题是:液冷是否会完全取代风冷?对此汤熠表示:“液冷技术虽然已成为主流选择,但并不能完全取代风冷,因此,我们强调风液融合的解决方案。”
他以一个50 kW机柜为例说明,典型散热配置是3:7:15 kW由风冷解决,35 kW由液冷承担。这意味着,即便未来单柜功率密度跃升至1 MW,液冷占比高达90%,风冷仍要处理100 kW余热,这一负载相当于一整个传统IDC机柜。换句话说,液冷与风冷将在未来的数年时间长期并存。
这种风液融合的理念在施耐德电气的产品设计中得到了充分体现。施耐德电气的冷板式液冷CDU不仅支持液-液换热(液体对液体),还支持液-气换热(液体对空气)。液-液CDU通过管路直连实现高效换热,适合大规模部署;而液-气CDU则将空调与CDU一体化整合,无需复杂管路系统,大幅降低了部署门槛。这种多样化的技术路径,为不同场景提供了量身定制的解决方案,并成功落地从能源巨头到AI独角兽的众多项目中,覆盖了不同规模和需求的企业。
例如,在某头部能源企业的项目中,由于安全要求,客户选择本地化进行大模型训练与推理。施耐德电气部署了4台房间级1 MW液冷CDU,并提供全套开关柜、母线与机柜系统,实现了从设计到安装的一站式交付。最终项目既保障了算力需求,又避免了数据上云的安全隐忧。
另一家AI独角兽公司则看重扩展灵活性。施耐德电气为其提供了模块化液冷方案:单机柜功率密度100 kW,可逐步扩展至8个机柜,最高800 kW。凭借标准化备货,客户下单一周内即可完成本地大模型部署。对快速成长的AI企业来说,这意味着算力不再是瓶颈,而能与业务同步扩张。
这些案例揭示出施耐德电气解决方案的真正价值:不仅在于技术指标的突破,更在于交付速度、扩展灵活性与生态开放性的结合。
生态:重塑数据中心构建模式
在卡车展现场,汤熠表示:“在智算时代,我们更加注重定制化。” 他这番话揭示了一个重要趋势:数据中心建设正从标准化产品采购向定制化解决方案转变。液冷技术的复杂性要求基础设施与IT部门实现前所未有的深度协同,从服务器选型、机柜配置到上架节奏,每个环节都影响着液冷方案的最终效果。
这种变化也为施耐德电气带来了新的价值定位,秉持积极的生态合作策略,施耐德电气致力重塑数据中心构建模式,为客户提供灵活且开放的解决方案。与传统的“一站式绑定”模式相比,施耐德电气的技术中立性为客户提供了长期的自由选择权,确保客户在未来的技术发展中拥有更大的灵活性与自主性。
目前,施耐德电气已经与英伟达建立了全球合作伙伴关系,并与戴尔、联想等领先的服务器厂商开展深度协作,这些合作不仅覆盖了产业链上下游,还构建了一个完整且高效的技术生态系统。这种“朋友圈”式的合作模式,确保了技术方案的兼容性、互操作性和可持续性。
当我们热议AI如何改变世界时,往往聚焦于算法突破、模型迭代,却忽略了那些默默支撑算力运行的基础设施。但正是这些看似普通的“铁盒子”,构成了数字化的根基。在AI即将突破奇点的前夜,每一度温度的控制、每一瓦功率的优化,都可能成为影响未来走向的关键变量。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。