英伟达Rubin平台发布,大幅降低AI训练和推理成本

英伟达在CES 2026上发布Rubin计算架构平台,采用六芯片设计支持构建和部署先进AI系统。相比前代Blackwell平台,Rubin能提供更低成本的推理结果并减少模型训练所需GPU数量。微软、AWS、谷歌等科技巨头预计将采用该平台应对算力短缺问题。平台将数据中心而非单个GPU服务器作为计算单元,旨在高效、安全地大规模生产智能。AMD同时推出Helios平台竞争万亿参数训练市场。

英伟达在拉斯维加斯CES 2026大会上发布了面向企业数据中心和计算的重要更新。周一,该公司推出了最新的计算架构——Rubin平台。云服务提供商CoreWeave作为首批供应商之一,将提供这一平台服务,其客户包括IBM和OpenAI。

Rubin平台采用六芯片设计,用于支持构建和部署先进的AI系统。该公司表示,相比前代Nvidia Blackwell平台,新平台能够提供更便宜的推理结果,并在模型训练中使用更少的GPU。训练资源和推理成本的预期降低将有助于"加速主流采用",这家芯片巨头在新闻稿中表示。

"Vera Rubin旨在解决我们面临的根本挑战:AI所需的计算量正在飞速增长;对英伟达GPU的需求也在飞速增长",英伟达首席执行官兼创始人黄仁勋在CES主题演讲中说道。"需求飞速增长是因为模型每年都在以10倍的数量级增长。"

计算需求不断上升这一现象,在2025年随着企业争相采用和部署新的AI工具,科技巨头们对此已经十分熟悉。

微软在去年秋季的2026财年第一季度财报电话会议中报告称,公司正面临计算容量短缺问题,这将影响整个财年。确实,不断增长的AI工作负载已促使近80%的组织提前一年考虑其AI数据中心需求,IT服务管理公司Flexential的报告显示。

微软、AWS、谷歌、甲骨文和OpenAI等公司预计将在容量紧张的情况下使用英伟达的Rubin平台。不仅仅是超大规模厂商或大型AI模型开发者对这项技术感兴趣;英伟达的新闻稿中还包括戴尔、HPE和联想等传统IT厂商对这一消息的支持。

Rubin平台的设计理念是应对"下一代AI工厂"必须处理数千个输入Token以为智能体推理和复杂工作流程提供上下文,同时在功耗、成本和部署约束下保持实时推理的现实需求,英伟达加速计算产品团队技术营销总监Kyle Aubrey在博客文章中表示。AI工厂是专门设计用于管理和简化AI生命周期的基础设施堆栈。

Aubrey表示,不同的组件——包括GPU、CPU、供电和冷却结构——被构建为一个单一系统,构成了Rubin平台的基础。

"通过这样做,Rubin平台将数据中心而不是单个GPU服务器视为计算单元,"Aubrey说道。"这种方法为大规模高效、安全和可预测地产生智能建立了新的基础。"

英伟达并不是CES上唯一推出机架级平台的厂商。AMD也推出了Helios平台,该平台旨在"为万亿参数训练提供最大带宽和能效",新闻稿显示。

AMD发布会表示,计算基础设施是AI的基础,正在推动前所未有的全球计算容量扩张。

"AMD正在通过端到端的技术领导力、开放平台以及与生态系统合作伙伴的深度协同创新,为AI的下一阶段构建计算基础",AMD首席执行官兼董事长苏姿丰在发布会上表示。

Q&A

Q1:英伟达Rubin平台有什么特别之处?

A:Rubin平台采用六芯片设计,用于支持构建和部署先进的AI系统。相比前代Nvidia Blackwell平台,新平台能够提供更便宜的推理结果,并在模型训练中使用更少的GPU,有助于大幅降低训练资源和推理成本。

Q2:为什么现在需要推出新的AI计算平台?

A:AI所需的计算量正在飞速增长,模型每年都在以10倍的数量级增长。微软等科技公司已报告面临计算容量短缺问题,近80%的组织需要提前一年考虑AI数据中心需求,因此急需更高效的计算平台。

Q3:哪些公司会使用Rubin平台?

A:微软、AWS、谷歌、甲骨文和OpenAI等科技巨头预计将使用英伟达的Rubin平台。此外,戴尔、HPE和联想等传统IT厂商也表示支持,云服务提供商CoreWeave将是首批提供该平台服务的供应商之一。

来源:CIO DIVE

0赞

好文章,需要你的鼓励

2026

01/08

08:12

分享

点赞

邮件订阅