超大规模数据中心的容量增长速度超过了数量增长,运营商通过建设规模更大的设施来满足人工智能 (AI) 工作负载对计算能力日益增长的需求。
市场研究机构 Synergy Research Group 的数据显示,截至 2024 年底,全球运营中的超大规模数据中心数量已达 1,136 个,是五年前的两倍。
此外,Synergy 表示,其在建项目数据显示,目前至少还有 504 个数据中心正在规划、建设和装修中。
该公司的数据基于对全球 19 家最大的云计算和互联网服务公司的数据中心足迹分析,包括 Amazon、Microsoft、Google、Meta、Tencent 和 ByteDance 等。
与此同时,市场研究数据显示,随着设施的平均规模不断扩大,运营中的超大规模数据中心的总容量在不到四年的时间内实现了翻倍。
该分析机构在一份研究报告中指出:"展望未来,Synergy 预测,超大规模数据中心的总容量将在不到四年的时间内再次翻倍。每年将稳定地新增 130-140 个超大规模数据中心投入运营,但整体容量增长将更多地由这些新建数据中心不断扩大的规模驱动,而生成式 AI 技术是推动规模扩大的主要原因。"
Synergy 的研究显示,全球超大规模数据中心容量的一半以上 (54%) 位于美国,欧洲和中国分别占 15% 和 16%。
数据还证实,在 Synergy 跟踪的所有服务提供商中,Amazon Web Services (AWS)、Microsoft 和 Google 拥有最广泛的数据中心布局,每家公司都在美国和欧洲都有相当规模的数据中心。
这三家公司共占全球超大规模数据中心容量的 59%,其次是 Facebook 母公司 Meta、阿里巴巴、腾讯、苹果和 TikTok 母公司字节跳动。
Synergy Research Group 首席分析师 John Dinsdale 表示,人工智能工作负载的需求对数据中心容量增长模式产生了变革性影响。
他说:"现在最大的区别在于许多新数据中心的规模显著增加。从历史上看,新数据中心的平均规模在逐渐增加,但随着各公司建设面向 AI 的基础设施,这一趋势在最近几个季度变得异常强劲。"
Dinsdale 表示,在编制数据时,该公司剔除了一些运营商"声称是云数据中心"的较小据点的数据,也排除了讨论潜在建设的"营销导向的声明",以获得市场状况的准确图景。
他说:"最终的实际数字显示,新建数据中心包括自有和租赁、本土和国际、大型和超大型等多种类型,但总体来看,规模增长的趋势非常明显。同样明显的是,美国将继续作为超大规模基础设施的主要所在地,远超其他国家和地区。"
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。