英伟达发布了全新的Vera Rubin计算平台,该架构专门为支持具备思考和推理能力的智能体人工智能系统而设计,而非简单的信息检索功能。
这一发布标志着英伟达正在应对AI计算需求的指数级增长,这一增长遵循三大扩展定律:模型预训练、后训练以及测试时扩展,其中AI模型通过在推理阶段花费更多计算周期进行思考来生成更好的结果。
在2026年CES展会前的虚拟媒体发布会上,英伟达高性能计算和AI超大规模基础设施高级总监Dion Harris详细介绍了Vera Rubin NVL72,这是一个完全液冷的机架级系统,集成了六种不同的芯片,包括全新的Vera CPU和Rubin图形处理器。
Harris表示:"在过去一年中,我们见证了语言模型智能水平的惊人飞跃。像Kimi K2 Thinking这样的顶级模型在推理过程中采用推理机制,生成更多Token以获得更好的答案。Token数量的增加需要计算能力的相应提升。"
Vera Rubin平台是当前Blackwell架构的继任者,性能实现了显著飞跃。全新的Rubin GPU配备高带宽内存,带宽可达每秒22TB,并搭载第三代Transformer引擎。
根据英伟达数据,与Blackwell相比,Rubin GPU在推理任务中的速度提升5倍,在训练工作负载处理方面快3.5倍。该系统专门构建用于处理专家混合模型,这类模型需要GPU之间进行大规模的全对全通信。
Harris说:"Rubin为最苛刻的专家混合模型提供了必要的性能支持。通过Vera Rubin架构,我们正在帮助合作伙伴和客户以最低成本构建世界上最大、最先进的AI系统。"
在CPU方面,Harris表示Vera专为数据移动和智能体处理而构建,配备88个定制的Olympus Arm核心。他补充道:"与我们上一代Grace CPU相比,Vera在专家混合模型训练和推理方面的数据处理、压缩和代码编译性能提升了一倍。"
Vera Rubin解决的一个关键技术难题是KV缓存的管理,这是长时间运行AI交互所需的上下文内存。随着AI智能体长期维持状态,GPU内存成为稀缺资源。
为此,英伟达宣布推出推理上下文内存存储平台,专门为推理创建了一个内存层。该平台位于GPU和传统存储之间,由英伟达的BlueField-4数据处理单元和Spectrum-X以太网网络提供支持。
Harris表示:"与推理上下文中使用的传统网络存储相比,该平台每秒处理的Token数量提升5倍,每美元总拥有成本的性能提升5倍,能效提升5倍,这直接转化为更高的吞吐量、更低的延迟和更可预测的行为。"
英伟达确认,基于Vera Rubin的产品将于2026年下半年通过合作伙伴提供,微软Azure和CoreWeave将是首批部署实例的云服务提供商。
开源和物理AI
除了硬件,英伟达高管还强调了公司作为软件提供商的作用。英伟达企业生成式AI软件副总裁Karri Briski宣布扩大公司的开源贡献,包括Nemotron系列的新模型,现在包括专门用于检索增强生成、内容安全和语音的模型,以及用于创建合成训练数据的Cosmos世界基础模型。
此外,英伟达还开发了Alpamayo,这是一个面向汽车行业的开源视觉-语言-行动推理模型系列。
英伟达汽车副总裁Ali Kani表示:"一切移动的物体最终都将完全自主,由物理AI驱动。Alpamayo是行业内首个真正让自动驾驶汽车能够思考的模型。"
Kani说,与以往基于感知的系统不同,视觉-语言-行动推理模型可以将自动驾驶中的复杂边缘情况(如交通信号灯故障)分解为步骤,遍历每种可能性以选择最安全的路径。
这些模型可以接受文本、摄像头馈送和导航历史等输入,然后输出轨迹和推理轨迹,"因此我们还可以告诉乘客自动驾驶汽车采取某项行动的原因",他补充道。
随着Alpamayo的发布,英伟达还发布了用于训练Alpamayo的1700小时驾驶数据,这是行业内最大、最多样化的公开自动驾驶汽车数据集。公司还发布了AlpaSim,这是一个开源仿真框架,开发者可以使用它来评估视觉-语言-行动推理模型,并使用自己的数据微调Alpamayo。
在发布会上,Briski阐明了英伟达关于开源工具的商业策略。她表示,虽然公司将开源模型视为产品,但并不直接从中获利。
相反,公司通过英伟达AI企业平台和英伟达推理微服务实现营收,这是一个容器化运行时软件,允许企业在云端和本地环境中安全高效地运行这些开源模型。
Q&A
Q1:Vera Rubin架构相比Blackwell有哪些性能提升?
A:根据英伟达数据,Rubin GPU在推理任务中的速度比Blackwell提升5倍,在训练工作负载处理方面快3.5倍。新的Rubin GPU配备高带宽内存,带宽可达每秒22TB,并搭载第三代Transformer引擎,专门用于处理需要大规模GPU间通信的专家混合模型。
Q2:Alpamayo模型与传统自动驾驶系统有什么不同?
A:Alpamayo是开源视觉-语言-行动推理模型,与以往基于感知的系统不同,它可以将复杂的自动驾驶边缘情况分解为步骤,遍历每种可能性选择最安全路径。该模型能接受文本、摄像头和导航历史输入,输出轨迹和推理轨迹,并能解释自动驾驶汽车采取行动的原因。
Q3:英伟达如何通过开源模型实现商业化?
A:英伟达不直接从开源模型获利,而是通过英伟达AI企业平台和英伟达推理微服务实现营收。这些是容器化运行时软件,允许企业在云端和本地环境中安全高效地运行开源模型,从而为公司带来收益。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。