英伟达宣布计划在今年晚些时候将RTX Pro 6000 Blackwell服务器版GPU引入标准企业服务器。此举将使Blackwell技术面向更广泛的企业客户,用于AI和其他传统工作负载。
在本周于加拿大温哥华举办的年度SIGGRAPH大会上,英伟达高管表示,思科、戴尔科技、惠普企业、联想、超微等公司将在其最受欢迎的2U企业服务器系统中提供这款GPU。
**技术特性**
英伟达全息世界和仿真技术副总裁Rev Lebaredian表示,这些2U英伟达RTX Pro服务器采用x86架构,配备风冷散热和PCIe接口,专为适配标准企业数据中心机架而设计,满足企业IT要求。
"企业数据中心原本为低功耗、可预测的工作负载而建,依赖于功耗受限机架中的风冷服务器。AI打破了这一模式,需要全新水平的计算强度,"他说。"英伟达RTX Pro服务器使从通用集群向AI工厂的转换变得无缝,无需彻底改造数据中心。"
英伟达首次在5月的Computex展会上发布了由RTX Pro 6000 Blackwell服务器版GPU驱动的最新RTX Pro服务器。虽然服务器厂商最初提供4U系统,但今天的公告将产品线扩展至2U规格。
**"大众化的Blackwell"**
Moor Insights & Strategy分析师Matt Kimball表示,新的Blackwell GPU驱动的英伟达RTX Pro服务器对于希望在本地进行AI训练、调优或推理的传统企业来说是个不错的选择,同时也适用于虚拟桌面基础设施、数据分析或其他加速工作负载。
他说,大多数人将英伟达与数千个高端GPU组合训练大型基础模型联系在一起。但这次公告专注于让传统企业以实用方式采用AI。
"这就像是大众化的Blackwell,"Kimball说。"这款RTX是为企业客户量身定制的GPU,这里的企业不是指最大的客户,而是拥有5000名员工、1000台服务器的公司,需要部署智能体AI来显著提升制造和供应链效率。"
Kimball表示,英伟达推动为企业提供采用AI和其他加速工作负载硬件的策略很明智。"这是个巧妙的策略,因为它抢在了商业企业需求爆发之前,"他说。"英伟达正直接走向'主流市场'。"
这一策略也为英伟达带来了竞争优势,因为AMD目前没有与RTX Pro 6000 Blackwell服务器版GPU竞争的产品。AMD目前主要在GPU市场高端与英伟达竞争。
**性能表现**
英伟达高管表示,随着企业每年为业务工作负载购买数百万台服务器,他们可以用这些主流GPU驱动的2U服务器来替换仅有CPU的系统。
公司表示,新的2U英伟达RTX Pro服务器在数据分析、仿真、视频处理和图形渲染等传统CPU工作负载上提供高达45倍的性能提升,与仅有CPU的2U系统相比,能效提高18倍,拥有成本更低。
"这意味着企业可以将数百个CPU系统整合到少数几台RTX Pro服务器中,"Lebaredian说。
他表示,支持英伟达AI Enterprise和Omniverse软件的新RTX Pro服务器将于今年秋季开始提供,同时为AI工作负载提供强大、可扩展的平台,包括智能体和物理AI应用场景。
与运行英伟达上一代L40S GPU的企业服务器相比,新系统的大语言模型推理速度提升6倍,实时渲染和合成数据生成速度提升4倍。
**SIGGRAPH大会其他公告**
在本周的SIGGRAPH大会上,英伟达还宣布了:
Nemotron模型系列的新增功能,使AI智能体能够更好地推理和做出更明智的决策。
新的Omniverse SDK和库现已可用于构建和部署工业AI和机器人仿真应用。
新的Cosmos World基础模型,支持更快的合成世界生成,以及用于数据整理、标注、机器人和视觉智能体的物理AI推理。
面向工作站的新英伟达Blackwell桌面GPU。
Q&A
Q1:RTX Pro 6000 Blackwell服务器版GPU有什么特别之处?
A:RTX Pro 6000 Blackwell服务器版GPU专为企业数据中心设计,采用2U规格、风冷散热,可在传统企业服务器中部署。相比仅有CPU的系统,它在数据分析、仿真等工作负载上提供45倍性能提升,能效提高18倍。
Q2:哪些企业最适合使用这款GPU服务器?
A:最适合拥有5000名员工、1000台服务器规模的传统企业,特别是需要在本地进行AI训练、推理,或改善制造和供应链效率的公司。这些企业可以用少数几台RTX Pro服务器替换数百个CPU系统。
Q3:什么时候可以购买到这些服务器?
A:RTX Pro服务器将于今年秋季开始提供。思科、戴尔科技、惠普企业、联想、超微等主要服务器厂商都将在其2U企业服务器系统中提供这款GPU。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。