英伟达推出Vera Rubin平台,标志着全栈AI基础设施时代来临

英伟达推出Vera Rubin平台,将计算、网络和数据处理集成到机架级部署中,专为大型AI数据中心设计。该平台整合了Vera CPU、Rubin GPU等多个组件,旨在支持从大规模训练到实时推理的所有AI工作负载。分析师指出,这标志着企业数据中心向AI原生基础设施的转变,但也可能增加供应商锁定风险。

英伟达推出了Vera Rubin平台,该平台将计算、网络和数据处理整合到机架级部署中,用于大型AI数据中心,这标志着超大规模环境正向更紧密集成的基础设施转变。

该公司表示,该平台集成了其Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机,以及新增的Groq 3 LPU,组成一个设计用作AI超级计算机的单一系统。

该架构旨在支持AI工作负载的所有阶段,从大规模训练和后训练到实时推理,并针对所谓的AI"工厂",即大规模数据中心部署。预计该平台将被云服务提供商采用,包括亚马逊网络服务、微软Azure和谷歌云。

英伟达还推出了其DSX平台,据称在固定功耗限制下,可将可用AI基础设施增加多达30%,这突出了数据中心能源容量面临的日益增长的压力。

分析师表示,该公告反映了企业数据中心向AI原生基础设施的更广泛转变。

Omdia首席分析师Lian Jye Su表示:"英伟达的这一举措展示了企业对更紧密集成和高度优化的全栈AI基础设施日益增长的需求。随着对AI应用需求的持续增长,超大规模运营商和大型企业正积极拥抱全栈AI基础设施,将其作为超大规模数据中心的新标准。"

Greyhound Research首席分析师Sanchit Vir Gogia表示,这一转变反映了从优化单个组件到为可扩展性和效率设计整个系统的更深层次转变。

"计算、内存行为、互连带宽和工作负载编排正在一起进行工程设计,"Gogia说。"甚至机架模块化、可维护性和组装效率等物理设计选择现在也是性能工程的一部分。基础设施开始类似于大规模的设备,但在极高的密度和复杂性下运行。"

行业观察人士表示,包括英伟达NVL72和OCP Open Rack等开放标准在内的机架级系统,正在为AI和机器学习工作负载实现基础设施资源的更灵活池化和编排。

IDC亚太区云计算、数据中心、电信和基础设施研究集团副总裁Franco Chiam表示:"我也看到其他运营商越来越多地采用芯片到网格策略,集成现场发电(微电网、电池)、先进冷却技术和共封装光学器件,以有效管理功率峰值,减少转换损失,并支持超过100kW的机架密度。"

"这种适应更高功率和热需求的集体行业响应,进一步得到了领先供应商和超大规模运营商围绕开放标准保持一致的加强,促进了可扩展的千兆瓦级数据中心部署,"Chiam补充说。

网络重要性凸显

网络正在成为AI基础设施的核心组件,因为Vera Rubin等平台更加强调数据在系统间的流动方式,而不是将连接性视为支撑层。

TechInsights半导体分析师Manish Rawat表示,通过Spectrum-6以太网、ConnectX-9网络接口卡、BlueField-4数据处理单元和NVLink 6等技术,性能瓶颈正从计算转向互连带宽、延迟和拥塞管理。

"大规模训练、智能体AI和分布式推理本质上是网络密集型的,推动了对确定性、高性能网络的需求,"Rawat说。"以太网正在重新架构以与InfiniBand竞争,而DPU卸载关键数据、存储和安全任务。企业必须过渡到扁平、高带宽架构,采用AI感知的流量运营,并建立新的技能组合。"

因此,AI性能越来越成为系统级挑战,网络中的低效率可能直接限制计算利用率。

"将网络与计算和存储更紧密地集成将通过减少延迟、提高功率效率和简化部署来加速AI工作负载,"Su说。"具体而言,Vera Rubin平台提供两倍的扩展带宽,以及可编程拥塞控制、自适应路由、KV缓存管理和专用安全功能,这些功能提高训练和推理期间的效率,同时通过更好的GPU利用率降低总拥有成本。"

性能与锁定的平衡

虽然该平台承诺显著的效率提升,但分析师表示,随着企业更加依赖英伟达紧密集成的硬件和软件生态系统,这也可能增加供应商锁定的风险。

向全栈AI基础设施的转变可能会限制多供应商环境中的灵活性,特别是对于传统上依赖模块化、可互操作系统的组织。"因此,首席信息官需要全面审视他们的AI工作负载,评估真正受益于英伟达系统的应用,"Su说。"采用云优先方法与提供Vera Rubin的超大规模运营商合作是一个坚实的第一步。在混合环境中,如果AI是战略性的且对大规模部署的应用核心,效率提升确实超过了锁定成本。"

Q&A

Q1:Vera Rubin平台是什么?它有哪些核心组件?

A:Vera Rubin是英伟达推出的全栈AI基础设施平台,集成了Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6以太网交换机和Groq 3 LPU,形成单一的AI超级计算机系统。

Q2:全栈AI基础设施相比传统架构有什么优势?

A:全栈AI基础设施将计算、网络和数据处理紧密集成,提供两倍的扩展带宽、可编程拥塞控制、自适应路由等功能,能够减少延迟、提高功率效率,通过更好的GPU利用率降低总拥有成本。

Q3:采用Vera Rubin平台会有什么潜在风险?

A:主要风险是供应商锁定,企业可能过度依赖英伟达的硬件和软件生态系统,在多供应商环境中失去灵活性。不过在混合环境中,如果AI是战略核心,效率提升通常会超过锁定成本。

来源:Networkworld

0赞

好文章,需要你的鼓励

2026

03/18

12:11

分享

点赞

邮件订阅