数据中心行业在 2025 年可能面临动荡,因为 AI 的增长威胁到可持续发展承诺,同时新项目可能会面临越来越多的公众反对。
此外,对服务器机房供电和配电方式的全面改革似乎越来越有必要。
这些发现来自 Uptime Institute 的最新报告,该报告基于其对塑造行业的最新发展和挑战的研究,对未来一年进行了预测。
所有五个预测都与支持预期的 AI 和相关云服务蓬勃发展所需的数据中心需求巨大增长有关。
Uptime 的第一个预测是,由于服务器机房的资源使用和温室气体 (GHG) 排放导致对新建项目的本地反对声音越来越大,而政府更关注获取经济效益,数据中心将变得更具争议性。
The Reg 已经广泛报道了 AI 导致的数据中心能源消耗的严重警告,分析机构 Gartner 最近表示,这可能在未来两年内增长 160%。数据中心对水资源和土地的使用是另一个争议点,再加上它们依赖税收优惠且创造的本地就业机会有限,这将使其面临当地居民和环保组织越来越多的反对。
Uptime 强调,许多政府已经设定了在特定日期实现温室气体净零排放的目标,但警告说,由于 AI 热潮可能会考验电力供应,这些承诺几乎肯定无法实现。
该报告指出,许多政府似乎相信 AI 带来的经济效益超过其他顾虑。英国就是一个典型的例子,本周发布了 AI 机遇行动计划,并承诺放宽规划规则以优先考虑数据中心建设。
Uptime 还预测,由于数据中心运营商的需求庞大且不断增长,他们将不得不积极参与能源电网管理。它预见到,如果不与公用事业公司密切合作,运营商在购买或发电方面将面临困难,并怀疑服务器机房可能需要提供或储存电力,并在需要时愿意减少负载。
例如,Microsoft 在其都柏林园区部署了"具有电网交互功能的 UPS 技术",允许安装用于备用电源的能源储存系统在需要时将能源反馈给电网。这旨在帮助平滑由于可再生能源的可变性而导致的电力供应变化。
这家云计算和软件公司还在同一园区建造私人燃气发电厂,以便其基础设施能够在用电高峰期继续运行。Uptime 表示,随着运营商试图通过向本地电网输送过剩电力来抵消部分投资,这一趋势可能会得到更广泛的采用。
报告的下一个预测是:由于 AI 基础设施的能源需求不断增长,数据中心内部将需要彻底改造。AI 训练已经将机架密度推向通常在超级计算设施中看到的水平,报告称围绕 Nvidia H 系列 GPU 构建的设备每机架达到 40 kW。
该报告警告说,提高机架功率带来了几个挑战,包括配电基础设施(如配电盘、UPS 系统、配电板和电池)占用的空间。如果不改变电力架构,许多数据中心可能会变成围绕相对较小的 IT 机房建造的发电厂。
解决这个问题需要进行一些改变,如对 IT 空间进行中压(超过 1 kV)配电和采用新型配电拓扑。然而,这种改造需要时间来展开,2025 年可能是实现这一目标的关键投资年。
另一个预测是,AI 模型将在云端进行训练,企业将使用公共云资源,而不是采购和部署自己的专用 GPU 服务器集群。
该报告的最后一个预测是,数据中心运营商将开始更多考虑替代 Nvidia 耗能巨大的 GPU 进行 AI 处理。Uptime 称,有迹象表明 AI 硬件市场将在 2025 年变得更加多样化。
Uptime 总结说,2025 年将考验数据中心运营商在应对 AI 带来的机遇和不确定性方面的能力。他们需要在此基础上保持现有的服务水平协议,实现可持续发展目标,并满足财务目标。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。