亚马逊云服务(AWS)正在构建一个包含"数十万个"加速器的大规模超级计算集群,旨在为其合作伙伴Anthropic在AI竞赛中提供优势支持。
这个被称为Project Rainier的系统预计将在今年晚些时候上线,计算资源分布在美国多个站点。亚马逊Annapurna实验室产品和客户工程总监Gadi Hutt表示,仅印第安纳州的一个站点就将涵盖30个数据中心,每个占地20万平方英尺。据报道,仅这一设施就消耗超过2.2吉瓦的电力。
与OpenAI的Stargate、xAI的Colossus或AWS自己的Project Ceiba不同,这个系统并不使用GPU。相反,Project Rainier将代表亚马逊Annapurna AI芯片有史以来最大规模的部署。
"这是我们首次构建如此大规模的训练集群,允许客户(在这种情况下是Anthropic)在所有基础设施上训练单一模型,"Hutt说。"这个规模确实是前所未有的。"
值得注意的是,亚马逊是Anthropic最大的支持者之一,已向这家OpenAI竞争对手投资80亿美元。
**计算的基本单元**
Project Rainier的核心是Annapurna实验室的Trainium2加速器,该产品于去年12月发布。
尽管名称如此,该芯片既可用于训练也可用于推理工作负载,这对于使用强化学习(RL)的客户来说非常有用,就像我们在DeepSeek R1和OpenAI的o1中看到的那样,为模型赋予推理能力。
"作为工作负载的RL内置了大量推理,因为我们需要在训练步骤中验证结果,"Hutt说。
该芯片本身采用台积电的芯片级封装技术(CoWoS),将一对5nm计算核心粘合在一起,由四个HBM堆栈供电。每个Trainium2加速器总共提供1.3 petaFLOPS的密集FP8性能、96GB HBM和2.9TB/s的内存带宽。
单独来看,该芯片的竞争力似乎不太强。例如,英伟达的B200拥有4.5 petaFLOPS的密集FP8、192GB HBM3e和8TB/s的内存带宽。
对4倍稀疏性的支持确实有助于Trainium2缩小差距,将FP8性能提升至5.2 petaFLOPS,但在相同精度下仍落后于B200的9 petaFLOPS稀疏计算。
**Trn2系统**
虽然Trainium2在芯片对芯片的比较中可能显得有些薄弱,但这并不能说明全部情况。
与H100和H200系列GPU不同,英伟达的B200只有八路HGX形式。同样,AWS的Trainium2最小配置(称为Trn2实例)有16个加速器。
"当你谈论大型集群时,单个芯片提供什么并不那么重要,更重要的是所谓的'良好吞吐量',"Hutt解释道。"这是考虑到停机时间的训练良好吞吐量...我没有看到业界对此有太多讨论,但这是客户关注的指标。"
与英伟达的HGX B200系统相比,性能差距要小得多。基于Blackwell的产品在内存带宽和密集FP8计算方面仍有优势,这些是推理性能的关键指标。
对于训练工作负载,亚马逊的Trn2实例确实有一些优势,因为它们在纸面上在FP8精度下提供更高的稀疏浮点性能。
**扩展到机架规模**
四个Trn2系统可以使用NeuronLink网状连接,将计算域从16个芯片扩展到64个,AWS将这种配置称为UltraServer。
这是通过将每个Trn2系统堆叠在一起形成3D环面来实现的。
根据亚马逊的文档,Trn2实例之间NeuronLink提供的实例间带宽相当低,每个芯片256GB/s的带宽。
这种芯片到芯片的网状连接再次无需交换机实现,具有功耗更低的优势。这一点,加上将系统分布在两个机架上所提供的较低计算密度,使AWS能够使用风冷——这是NVL72系统无法做到的。
**向外扩展**
如前所述,亚马逊对Project Rainier的最终规模一直比较模糊。此前曾吹嘘该系统将包含数十万个Trainium2芯片。
在最近的博客文章中,它说"当你连接数万个这样的UltraServer并将它们都指向同一个问题时,你就得到了Project Rainier。"
即使仅仅10,000个UltraServer也相当于640,000个加速器。考虑到百万加速器集群将产生更好的头条新闻,我们假设作者指的是Trn2实例,而不是UltraServer。
凭借600万平方英尺的占地面积,我们预计空间不会成为限制因素。
**Project Rainier 2.0即将到来?**
到目前为止,亚马逊的所有信息都表明Trainium2为Project Rainier提供动力,但随着第三代加速器仅几个月之后就将推出,我们不会惊讶地发现至少一些站点最终会使用更新、更强大的芯片。
在去年的re:Invent大会上,Annapurna实验室团队预告了这款芯片,它将基于台积电的3nm工艺节点构建,承诺比当前一代提供40%更好的效率。亚马逊还预计其基于Trainium3的UltraServer将提供比基于Trn2的系统约4倍的性能。
这意味着我们可以期待每个Trn3 UltraServer提供约332.8 petaFLOPS的密集FP8或启用稀疏性时约1.33 exaFLOPS。
确实有先例支持最后时刻的变更。如您所记得的,亚马逊的Project Ceiba最初应该使用英伟达的Grace Hopper超级芯片,但最终使用了更强大的Blackwell加速器。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。