当AI算力撞上散热极限,液冷技术如何重塑智算中心生态 原创

液冷与风冷将长期并存,比例变化,但永不“清零”。

“未来,算力和功耗都将加速攀升,以如此惊人的进化速度,AI将会突破奇点。”在施耐德电气北京站卡车巡展现场,施耐德电气关键电源业务、IMDC及边缘计算产品经理汤熠说道。

当AI算力撞上散热极限,液冷技术如何重塑智算中心生态

从数据上看,2025年中国算力规模跃居全球第二,智能算力规模达到1037.3 EFLOPS,以43%的增速领跑全球。据IDC预测:2023-2028年中国液冷服务器市场年均复合增速将达到45.8%,2028年市场规模将突破102亿美元。然而高速奔跑的背后,冷却与供电的压力正迎面袭来。液冷从“可选项”变为“必选项”,基础设施的范式革命正在加速。

施耐德电气给出的答案,是一套覆盖散热、电力与模块化的全景方案:从液冷CDU,到Galaxy VXL UPS,再到IMDC智能模块化数据中心,构建了一幅面向AI时代数据中心的全景蓝图。

液冷:算力生态的关键变量

在传统数据中心中,机柜功率密度通常在5kW到10kW之间,依靠传统风冷就能满足散热需求。但在AI时代,这个数字跃升至60-120 kW,甚至更高。“未来超过50kW的机柜基本都会配备液冷系统,这是一个全新的赛道。”汤熠说。

但液冷远不是“换一种散热方式”这么简单。它横跨材料兼容性、系统集成、运维与回收的全链路,任何环节的缺口都可能演变为系统性风险。

展示环节中,汤熠指着管路向观众解释:这样的主管路跟家用装修的管路是一致的,超纯水在泵的驱动下进入CDU,通过与外部冷源交换热量,再经分水器分流至每一台服务器冷板。热量被精准带走,液体再返回,循环往复。每个机柜都配置了双分水单元(Manifold),通过快速接头与服务器相连,每台服务器又拥有独立的进出水口,构成一条完整的冷热水循环链路。

当AI算力撞上散热极限,液冷技术如何重塑智算中心生态

他进一步透露,一个1 MW级的液冷项目,整体投资约在150万至250万元之间,其中CDU仅占10%至20%,其余近八成的投入,往往耗在管网铺设、快速接头及机柜级分水单元等环节。换句话说,液冷真正的挑战,不是某一台设备的性能,而是如何协同起整套系统的高效运转。

施耐德电气的价值,正是在于将这套复杂的工程化体系封装为“交钥匙方案”。从管路铺设到快速接头,从分水单元到外部冷源,甚至到与供配电系统的深度耦合,施耐德电气都能实现统一设计与端到端交付。对用户而言,这不仅大幅降低了多方集成的风险,也将原本冗长的建设周期缩短至数周,让智算中心更快从蓝图走向现实。

风液融合:不是非黑即白

一个重要的问题是:液冷是否会完全取代风冷?

汤熠的回答是:“液冷虽然成为主流,但不能完全取代风冷,所以我们强调风液融合。”

以一个50 kW机柜为例,典型散热配置是3:7:15 kW由风冷解决,35 kW由液冷承担。这意味着,即便未来单柜功率密度跃升至1 MW,液冷占比高达90%,风冷仍要处理100 kW余热,这一负载相当于一整个传统IDC机柜。换句话说,液冷与风冷将长期并存,比例变化,但永不“清零”。

这种风液融合的理念在施耐德电气的产品设计中得到了充分体现。施耐德电气冷板式液冷CDU不仅支持液-液换热(液体对液体),也支持液-气换热(液体对空气)。液-液CDU通过管路直连实现高效换热,适合大规模部署;风-液CDU则将空调与CDU一体化整合,无需复杂管路系统,大幅降低部署门槛。这种技术路径的多样化,为不同场景提供了量身定制的解决方案。

落地案例:从能源巨头到AI独角兽

液冷的落地价值,在实际项目中已得到验证。

在某头部能源企业的项目中,由于安全要求,客户选择本地化进行大模型训练与推理。施耐德电气部署了4台房间级1 MW液冷CDU,并提供全套开关柜、母线与机柜系统,实现了从设计到安装的一站式交付。最终项目既保障了算力需求,又避免了数据上云的安全隐忧。

另一家AI独角兽则看重扩展灵活性。施耐德电气为其提供了模块化液冷方案:单机柜功率密度100 kW,可逐步扩展至8个机柜,最高800 kW。凭借标准化备货,客户下单一周内即可完成本地大模型部署。对快速成长的AI企业来说,这意味着算力不再是瓶颈,而能与业务同步扩张。

这些案例揭示出液冷的真正价值:不仅在于技术指标的突破,更在于交付速度、扩展灵活性与生态开放性的结合。

电力之变:在1.2平方米里释放1.25 MW

散热之外,电力同样是AI数据中心的另一道“硬墙”。

随着算力密度不断攀升,数据中心的空间配比发生剧变。过去灰区(供配电区域)与白区(IT机房)的比例约为3:7,而在AI场景下,已趋近于1:1,甚至倒挂为7:3。配电系统侵占了原本属于业务的空间。

施耐德电气推出的Galaxy VXL UPS,作为适配AI应用的新一代UPS,能够在仅1.2平方米的占地面积内实现高达1.25MW的功率输出。施耐德电气关键电源业务、系统业务产品经理连博介绍,“基本2台设备就可以满足2500kVA供电需求,从而大幅降低传统配电面积,提供更多的空间给白区。”

当AI算力撞上散热极限,液冷技术如何重塑智算中心生态

简而言之,VXL不仅解决了功率密度问题,更通过“减灰增白”释放出更多算力空间。

如果说液冷是散热的必答题,VXL是电力的突破口,那么IMDC智能模块化数据中心 则是未来智算中心的“方舟”。

IMDC智能模块化数据中心将“积木式”建设理念推向极致。集成电源、配电、制冷、机柜于一体的模块化设计,实现了工厂预制、现场快速部署的交付模式。其内置的AI系统:每8秒自动调节空调策略,相比传统的半年或一年一次人工调试,实现全年空调能耗下降30%。

重塑数据中心生态

技术创新的背后,是商业模式的深层变革。

“在智算时代,我们更加注重定制化。”汤熠的话揭示了一个重要趋势:数据中心建设正从标准化产品采购向定制化解决方案转变。液冷技术的复杂性要求基础设施与IT部门实现前所未有的深度协同,从服务器选型、机柜配置到上架节奏,每个环节都影响着液冷方案的最终效果。

这种变化为施耐德电气带来了新的价值定位。"我们能够帮助客户摆脱对单一AI芯片厂家或服务器厂商的捆绑依赖。相比于“一站式绑定”的模式,施耐德电气提供的技术中立性为客户保留了长期的选择自由度,避免了5-10年的技术路径锁定风险。

生态合作策略同样体现了开放理念。与英伟达的全球合作伙伴关系、与联想戴尔等服务器厂商的深度协作,构建了覆盖产业链上下游的完整生态。这种“朋友圈”式的合作模式,确保了技术方案的兼容性和可持续性。

当我们热议AI如何改变世界时,往往聚焦于算法突破、模型迭代,却忽略了那些默默支撑算力运行的基础设施。但正是这些看似普通的“铁盒子”,构成了数字化的根基。在AI即将突破奇点的前夜,每一度温度的控制、每一瓦功率的优化,都可能成为影响未来走向的关键变量。

来源:至顶网人工智能频道

0赞

好文章,需要你的鼓励

2025

09/16

21:50

分享

点赞

邮件订阅