两家公司都强调,已签署的合同依然有效,并将这一举动描述为正常的容量管理。微软表示,其财政年度(至 6 月结束)仍计划投入 800 亿美元。AWS 全球数据中心副总裁在 LinkedIn 上写道,“我们近期的扩展计划并未发生任何根本性变化。”
AI 建设确实在进行,但步伐可能正在发生变化。虽然云服务提供商在公开场合坚持扩展计划未变,但最近的租赁暂停暗示幕后正进行更为谨慎的重新调整——这预示着 AI 热潮可能不会以亚马逊和微软预期的那种不懈速度推进。
这种转变的一种解释是单纯的过度投入。根据 CNBC 的报道,上周 UBS 发布的一份报告得出结论,微软此轮撤退可能源于在最初的 AI 热潮期间投入过度。报告称,微软在两年内的租赁资本支出增长了 6.7 倍,目前租赁义务总额约为 1750 亿美元。随着对这项技术实际应用方式和电力需求有了更清晰的认识,微软正在取消那些不再具备即时意义的早期项目。UBS 表示,他们几乎没有发现突发的需求低迷是促使战略调整的主要原因。
AI 生态系统内部的成本压力不断累积。仅在计算能力上,对 OpenAI 最先进模型的一次查询可能就花费高达 1000 美元。尽管 ChatGPT 的高级访问服务每月收费 200 美元,但 OpenAI CEO Sam Altman 在一月份表示,该订阅服务尚未实现盈利。
即便是科技高管也开始承认炒作与实际成果之间存在差距。微软 CEO Satya Nadella 最近坦言,迄今为止,AI 尚未产生多少可衡量的价值。他的言论反映出更广泛的疑虑,即生成式 AI 是否能够带来可持续回报——或基础设施投资是否已远远超前于现实需求。
外部因素正在加剧这一挑战。特朗普总统提出的关税政策使进口设备成本大幅上升的可能性增大,而科技股在更广泛的市场波动中也承受着压力。与此同时,许多地区正面临电网容量的限制,这限制了新增数据中心的能力;各地对大型设施的反对声音也在不断增强,因为社区对不断上升的电力需求、土地使用和水资源消耗表示担忧。
未来 AI 基础设施的规模可能会显著放大这些压力。根据乔治城大学、Epoch AI 与 RAND Corporation 的研究人员近期的一项研究,如果当前趋势持续,到 2030 年,领先的 AI 数据中心每个可能将耗资 2000 亿美元,内含 200 万个 AI 芯片,并需要相当于九座核反应堆的电力。
这一撤退恰逢前所未有的投资热潮。据 Synergy Research Group 表示,目前全球有超过 500 个数据中心设施正处于规划和建设阶段。该机构称,亚马逊、微软和 Google (GOOGL) 现在占据了所有超大规模数据中心容量的 59%。每家公司都承诺将投入数十亿美元于资本支出,主要用于支撑生成式 AI 模型。
与此同时,AI 基础设施支出与 AI 创收之间的差距持续扩大。Sequoia Capital 合伙人 David Cahn 在 2024 年 6 月的一项分析中估计,这一不匹配现已膨胀成一个 6000 亿美元的缺口——而仅在九个月前,这一差距还仅为 2000 亿美元。
目前,云服务提供商仍坚持他们的公开声明:扩展计划保持不变。但那些较为低调的信号——租赁暂停、早期项目取消、成本上升以及快速变化的竞争态势——表明,幕后情况远比表面上看起来更为复杂。
好文章,需要你的鼓励
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
浙江大学研究团队开发的"自制动力训练"(Self-Braking Tuning,SBT)方法解决了大型语言模型在推理过程中的过度思考问题。该方法不依赖外部干预,而是培养模型自主识别冗余推理并适时终止的能力。研究者通过分析推理效率比率和过度思考标记比率,构建了两种数据策略:SBT-E(精确版)和SBT-D(动态版)。实验结果表明,经过训练的模型在多个数学基准测试上保持原有准确率的同时,将标记消耗减少了30%到60%,显著提高了推理效率。这项创新使AI系统能更像人类一样有效思考,为资源受限环境下的AI部署提供了新解决方案。