超大规模数据中心的容量增长速度超过了数量增长,运营商通过建设规模更大的设施来满足人工智能 (AI) 工作负载对计算能力日益增长的需求。
市场研究机构 Synergy Research Group 的数据显示,截至 2024 年底,全球运营中的超大规模数据中心数量已达 1,136 个,是五年前的两倍。
此外,Synergy 表示,其在建项目数据显示,目前至少还有 504 个数据中心正在规划、建设和装修中。
该公司的数据基于对全球 19 家最大的云计算和互联网服务公司的数据中心足迹分析,包括 Amazon、Microsoft、Google、Meta、Tencent 和 ByteDance 等。
与此同时,市场研究数据显示,随着设施的平均规模不断扩大,运营中的超大规模数据中心的总容量在不到四年的时间内实现了翻倍。
该分析机构在一份研究报告中指出:"展望未来,Synergy 预测,超大规模数据中心的总容量将在不到四年的时间内再次翻倍。每年将稳定地新增 130-140 个超大规模数据中心投入运营,但整体容量增长将更多地由这些新建数据中心不断扩大的规模驱动,而生成式 AI 技术是推动规模扩大的主要原因。"
Synergy 的研究显示,全球超大规模数据中心容量的一半以上 (54%) 位于美国,欧洲和中国分别占 15% 和 16%。
数据还证实,在 Synergy 跟踪的所有服务提供商中,Amazon Web Services (AWS)、Microsoft 和 Google 拥有最广泛的数据中心布局,每家公司都在美国和欧洲都有相当规模的数据中心。
这三家公司共占全球超大规模数据中心容量的 59%,其次是 Facebook 母公司 Meta、阿里巴巴、腾讯、苹果和 TikTok 母公司字节跳动。
Synergy Research Group 首席分析师 John Dinsdale 表示,人工智能工作负载的需求对数据中心容量增长模式产生了变革性影响。
他说:"现在最大的区别在于许多新数据中心的规模显著增加。从历史上看,新数据中心的平均规模在逐渐增加,但随着各公司建设面向 AI 的基础设施,这一趋势在最近几个季度变得异常强劲。"
Dinsdale 表示,在编制数据时,该公司剔除了一些运营商"声称是云数据中心"的较小据点的数据,也排除了讨论潜在建设的"营销导向的声明",以获得市场状况的准确图景。
他说:"最终的实际数字显示,新建数据中心包括自有和租赁、本土和国际、大型和超大型等多种类型,但总体来看,规模增长的趋势非常明显。同样明显的是,美国将继续作为超大规模基础设施的主要所在地,远超其他国家和地区。"
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。