亚马逊云服务(AWS)正在构建一个包含"数十万个"加速器的大规模超级计算集群,旨在为其合作伙伴Anthropic在AI竞赛中提供优势支持。
这个被称为Project Rainier的系统预计将在今年晚些时候上线,计算资源分布在美国多个站点。亚马逊Annapurna实验室产品和客户工程总监Gadi Hutt表示,仅印第安纳州的一个站点就将涵盖30个数据中心,每个占地20万平方英尺。据报道,仅这一设施就消耗超过2.2吉瓦的电力。
与OpenAI的Stargate、xAI的Colossus或AWS自己的Project Ceiba不同,这个系统并不使用GPU。相反,Project Rainier将代表亚马逊Annapurna AI芯片有史以来最大规模的部署。
"这是我们首次构建如此大规模的训练集群,允许客户(在这种情况下是Anthropic)在所有基础设施上训练单一模型,"Hutt说。"这个规模确实是前所未有的。"
值得注意的是,亚马逊是Anthropic最大的支持者之一,已向这家OpenAI竞争对手投资80亿美元。
**计算的基本单元**
Project Rainier的核心是Annapurna实验室的Trainium2加速器,该产品于去年12月发布。
尽管名称如此,该芯片既可用于训练也可用于推理工作负载,这对于使用强化学习(RL)的客户来说非常有用,就像我们在DeepSeek R1和OpenAI的o1中看到的那样,为模型赋予推理能力。
"作为工作负载的RL内置了大量推理,因为我们需要在训练步骤中验证结果,"Hutt说。
该芯片本身采用台积电的芯片级封装技术(CoWoS),将一对5nm计算核心粘合在一起,由四个HBM堆栈供电。每个Trainium2加速器总共提供1.3 petaFLOPS的密集FP8性能、96GB HBM和2.9TB/s的内存带宽。
单独来看,该芯片的竞争力似乎不太强。例如,英伟达的B200拥有4.5 petaFLOPS的密集FP8、192GB HBM3e和8TB/s的内存带宽。
对4倍稀疏性的支持确实有助于Trainium2缩小差距,将FP8性能提升至5.2 petaFLOPS,但在相同精度下仍落后于B200的9 petaFLOPS稀疏计算。
**Trn2系统**
虽然Trainium2在芯片对芯片的比较中可能显得有些薄弱,但这并不能说明全部情况。
与H100和H200系列GPU不同,英伟达的B200只有八路HGX形式。同样,AWS的Trainium2最小配置(称为Trn2实例)有16个加速器。
"当你谈论大型集群时,单个芯片提供什么并不那么重要,更重要的是所谓的'良好吞吐量',"Hutt解释道。"这是考虑到停机时间的训练良好吞吐量...我没有看到业界对此有太多讨论,但这是客户关注的指标。"
与英伟达的HGX B200系统相比,性能差距要小得多。基于Blackwell的产品在内存带宽和密集FP8计算方面仍有优势,这些是推理性能的关键指标。
对于训练工作负载,亚马逊的Trn2实例确实有一些优势,因为它们在纸面上在FP8精度下提供更高的稀疏浮点性能。
**扩展到机架规模**
四个Trn2系统可以使用NeuronLink网状连接,将计算域从16个芯片扩展到64个,AWS将这种配置称为UltraServer。
这是通过将每个Trn2系统堆叠在一起形成3D环面来实现的。
根据亚马逊的文档,Trn2实例之间NeuronLink提供的实例间带宽相当低,每个芯片256GB/s的带宽。
这种芯片到芯片的网状连接再次无需交换机实现,具有功耗更低的优势。这一点,加上将系统分布在两个机架上所提供的较低计算密度,使AWS能够使用风冷——这是NVL72系统无法做到的。
**向外扩展**
如前所述,亚马逊对Project Rainier的最终规模一直比较模糊。此前曾吹嘘该系统将包含数十万个Trainium2芯片。
在最近的博客文章中,它说"当你连接数万个这样的UltraServer并将它们都指向同一个问题时,你就得到了Project Rainier。"
即使仅仅10,000个UltraServer也相当于640,000个加速器。考虑到百万加速器集群将产生更好的头条新闻,我们假设作者指的是Trn2实例,而不是UltraServer。
凭借600万平方英尺的占地面积,我们预计空间不会成为限制因素。
**Project Rainier 2.0即将到来?**
到目前为止,亚马逊的所有信息都表明Trainium2为Project Rainier提供动力,但随着第三代加速器仅几个月之后就将推出,我们不会惊讶地发现至少一些站点最终会使用更新、更强大的芯片。
在去年的re:Invent大会上,Annapurna实验室团队预告了这款芯片,它将基于台积电的3nm工艺节点构建,承诺比当前一代提供40%更好的效率。亚马逊还预计其基于Trainium3的UltraServer将提供比基于Trn2的系统约4倍的性能。
这意味着我们可以期待每个Trn3 UltraServer提供约332.8 petaFLOPS的密集FP8或启用稀疏性时约1.33 exaFLOPS。
确实有先例支持最后时刻的变更。如您所记得的,亚马逊的Project Ceiba最初应该使用英伟达的Grace Hopper超级芯片,但最终使用了更强大的Blackwell加速器。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。