
1、数据中心能耗情况分析
图1 数据中心能耗分布柱状图

注:PUE为电源使用效率,UPS为不间断电源。

1)在数据中心建设初期一定要遵照相关法律法规政策,如《高耗能落后机电设备(产品)淘汰目录》,确保未选用落后淘汰设备。
2)在满足工艺要求的情况下,数据中心应选用性能稳定、操作可靠、维修简单、能耗低的新技术和先进设备。
3)在总图布置及机房楼、变电站等关键设施的布置上,需确保紧凑合理,减少线路和变压器的损耗。
5)注意密封机机架内部的空隙、机架与机架之间的空隙、机架底部的空隙,以防热风灌入。
1)根据工程的总图布置规划,合理配置配电室以减小电缆长度,同时,优化配电线路,降低供电系统线损,提高平均负荷与最大负荷之比,选用低耗能、高功率的电气设备,减少配电环节电能消耗。
2)选用新型、节能的各类产品。车间供电应将线路长度降到最小,将电力损失降到最低;增加动力,减少无功损失。
3)产品选用高效节能的绿色环保型照明灯具,该灯具可自动开闭照明器,利用智能声光控制技术减少电力损失。根据各场所使用功能的不同,采用与之相符的光源和灯具。
1)机房楼管道和所有热力设备的保温均采用轻质高效保温外墙和屋面隔热材料等新型保温材料,以减弱热传导效应。
3)建筑充分考虑自然采光与通风,应尽量减少人工照明与机械通风。冬季最大限度地利用自然热进行加热,发热更多,减少损耗;夏季最大限度地利用天然能量降温,节约能源,降低消耗。
4)根据GB/T7107—2002《建筑外窗气密性能分级及检测方法》,建筑物外窗气密性能分级不应低于6级,采用传热性和遮阳性符合要求的塑钢窗、中空玻璃等。

1)由于数据中心大多数选址于工业开发区或偏远僻静的地方,距离人员聚集的城市或建筑设施较远,余热的供出无法满足城镇用热需求,仅为数据中心内部的运维楼、办公楼、生活楼等区域供暖,周边单位未实现有效供应。
2)关于数据中心余热的回收与利用,中国并没有出台相关标准和政策,国内也没有指导性的依据来支持数据中心开展余热回收项目。
3)国内数据中心余热回收能量利用存在效率相对较低、热交换效率不高、管线损耗高等问题,且中国目前设备制造能力和余热工艺方案的技术先进性与国外数据中心有着较大的差距。
4)考虑到目前的经济形势,数据中心余热回收利用项目的落地对于企业来说是一笔不小的投资,并且由于回收效果差、用热单元稀少等,项目投资回收期较长。

3、结束语
作者:穆建军
参考文献:
[1]石云鹏.“双碳”背景下数据中心能耗现状与节能技术研究[J].中国新通信,2022,24(8):119-121.
[2]张忠斌,邵小桐,宋平,等.数据中心能效影响因素及评价指标[J].暖通空调,2022,52(3):148-156.
[3]杨春梅,黎晓彬,杨昉,等.基于咨询案例的数据中心绿色发展研究[J].节能,2023,42(7):66-68.
[4]李德明,朴春爱,陈磊.大型数据中心制冷系统设计探讨[J].信息工程,2017(9):30.
[5]马妍,刘小林.以零碳数据中心为生产力提质增新[J].中国电信业,2024(3):24-28.
-END-
未经授权,禁止转载。公众号:数据中心基础设施运营管理
【版权声明】
凡本公众平台注明来源或转自的文章,版权归原作者及原出处所有,仅供大家学习参考之用,若来源标注错误或侵犯到您的权利,烦请告知,我们将立即删除。
【免责声明】
本公众平台对转载、分享的内容、陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完善性提供任何明示或暗示的保证,仅供读者参考。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。