到2035年,数据中心的电力需求预计将翻一番以上,可能达到440太瓦时。这相当于在美国电网中增加整个加利福尼亚州的电力需求。
这种增长很大程度上可归因于AI的广泛应用。预计到2030年,AI工作负载将占数据中心需求的50%到70%。随着AI工作负载的增加,数据中心运营商面临着一个挑战:在电力基础设施容量限制内,同时优化冷却和IT设备的能源分配。
多年来,我一直帮助HVAC制造商为关键任务数据中心设计高效的风扇和泵。在电网容量受限的情况下满足AI革命的需求,需要重新思考最大的隐性能源消耗者之一:电机。
电机在数据中心中发挥着重要作用,为服务器和冷却设备提供动力。本文将重点关注为冷却设备提供动力的电机。先进的冷却电机技术有潜力在减少数据中心能耗的同时,为新的AI工作负载释放更多IT容量,从而积极影响盈利能力。
传统电机的问题
在大型设施中,数十万台电机驱动关键的空气处理和冷却系统。对这些电机的需求正在增加,但大多数传统电机都浪费能源。
机械系统(如冷却)通常消耗数据中心约三分之一的能源预算。目前冷却设备中使用的大多数电机都是标准尺寸,其功率和电流消耗规格超过了应用的实际需求。为冷却分配超过必要的功率容量会减少可用于创收工作负载的容量。
此外,数据中心冷却系统很少在满负荷下运行,而是在30%-50%的容量之间运行。传统的交流感应电机和许多传统的EC(电子整流)电机在部分负荷和较低速度下会出现效率急剧下降。
这些因素提高了数据中心的运营成本,影响了冷却系统的性能和可靠性,并导致不必要的电力基础设施成本。如果没有足够的电力来承担新的AI工作负载,它们也可能阻碍增长。
考虑到电机在数据中心冷却设备中的重要作用,电机效率正成为一个紧迫的优先事项。在为功率优化设计数据中心和选择高效电机时,有几个重要的考虑因素。
寻找平坦的效率曲线
所有电机都有一个效率曲线,描述它们在各种负载和速度下的性能。在较低速度和负载点保持高效率的先进电机对于优化能源使用至关重要。能够在广泛的工作点范围内保持高效率的电机被认为具有平坦的效率曲线。
具有平坦效率曲线的电机在整个工作范围内保持一致的性能,提高泵系统的线到水效率和风扇系统的线到空气效率。这种能力使数据中心能够在各种工作负载和速度下优化冷却效率。
冷却系统的合理尺寸电机
数据中心受益于使用合理尺寸电机的冷却系统。合理尺寸的电机完全符合应用的要求,需要较少的安培数进行操作,这些容量可以重新分配给IT服务器端业务。
在设计阶段,数据中心运营商可以使用为精确的功率、转速、电压和其他运行需求而构建的合理尺寸电机来定制他们的冷却系统。他们还可以比较不同尺寸的电机,以确定冷却系统的节能效果。
由于合理尺寸减少了电机的输入电流(安培数),它还转化为改善的PUE并减少了电力基础设施需求,如布线、断路器和变压器。这可以在安装阶段带来显著的节省,但更重要的是,它为创收应用释放了电力容量。
重新分配IT容量的功率
分配给冷却负载的功率取决于冷却服务器房间所需的流量和压力,以及电机和驱动器的连接功率。连接功率由每个风扇、泵和VFD铭牌上列出的功率定义。
由于合理尺寸的电机需要较少的连接功率要求,它们允许运营商避免向冷却过度分配功率,并将更多的输入功率引导到驱动AI工作负载的创收服务器。
使用合理尺寸的电机,盐湖城的一个大型数据中心能够将冷却系统的功率分配减少近4兆瓦,据估计这允许为额外的13,500台AI服务器重新分配功率,每年可产生额外的900万美元收入。
使用合理尺寸电机设计数据中心需要远见,但它可以释放显著的长期收入潜力。
随着AI革命的兴起,数据中心运营商有机会重新思考每瓦特的使用方式。利用高效、合理尺寸电机的冷却设备的数据中心将有良好的定位来削减功率浪费,释放电力容量,并扩展IT基础设施以承载更多AI工作负载,最终实现更好的盈利能力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。