两大企业基础设施供应商宣布产品线扩展,为客户大规模部署人工智能工作负载提供更多选择。
戴尔科技公司和慧与公司的新产品包括融合英伟达公司最新图形处理器技术和AI软件的系统及软件更新,配合其他合作伙伴的工具,帮助企业从AI实验阶段向生产阶段转型。
戴尔AI数据平台升级
戴尔表示正在更新其AI数据平台,新增组件旨在改善非结构化数据摄取、转换、检索和计算性能。该平台设计用于处理完整的AI工作负载生命周期,从数据摄取到智能体推理再到知识检索。
与Elasticsearch公司合作开发的新型非结构化数据引擎提供对大规模非结构化数据集的实时、安全访问,支持高级向量搜索、语义检索和混合关键词搜索。该引擎集成GPU加速和英伟达NeMo Retriever微服务,用于检索增强生成应用。
戴尔AI数据平台还集成了Starburst Data公司的联邦SQL引擎,可在不移动数据的情况下查询多个数据源,以及基于Apache Spark的数据处理引擎,用于批处理和实时分析。这些与戴尔的PowerScale和ObjectScale存储系统协同工作,支持结构化、半结构化和非结构化数据。
Blackwell架构加持的硬件
在硬件方面,戴尔推出配备英伟达RTX PRO 6000 Blackwell服务器版GPU的PowerEdge R7725和R770服务器。这些GPU基于英伟达Blackwell架构构建,专为AI推理、视觉计算、工程仿真和虚拟工作站工作负载设计。戴尔表示,与上一代相比,新GPU在大语言模型推理方面可提供高达6倍的Token吞吐量,同时具备更高的工程仿真性能,支持更多并发用户。
R7725将成为首个集成英伟达AI数据平台参考设计的2U服务器,这是构建GPU加速基础设施的验证蓝图。戴尔表示,这种组合可为快速推理、语义搜索和大型AI工作负载提供即插即用系统。
HPE瞄准大规模AI应用
HPE表示正在扩展其AI优化系统产品线,新配置同样使用英伟达Blackwell架构GPU以及最新的英伟达AI模型。该公司称这些更新旨在支持智能体AI(自主完成任务或在少量监督下完成任务的系统)和物理AI(涉及AI控制机器人和其他硬件系统)。
HPE还为其Cray XD670和XD675服务器增加新选项,可配置英伟达GB200 NVL72系统用于大规模AI训练,或配置RTX PRO 6000 Blackwell GPU用于推理和较小规模工作负载。HPE表示两者都预集成了英伟达的AI Enterprise软件套件,包括NeMo框架和预训练模型,如用于智能体AI的英伟达Nemotron和用于物理AI应用的Cosmos。
该公司还在更新其GreenLake AI产品以支持新系统。GreenLake是部署AI基础设施的按需付费模型,允许企业根据需要扩展GPU资源,同时将工作负载保持在本地或托管设施中。HPE表示其私有云AI将支持最新版本的Nemotron和Cosmos模型,以及最新的英伟达视频搜索和摘要蓝图。
行业趋势
两家公司的公告都围绕将英伟达Blackwell一代GPU和相关AI软件集成到面向企业的系统中。戴尔专注于将AI模型连接到高质量企业数据,特别是非结构化数据,而HPE则强调智能体和物理AI模型的大规模训练和部署。
这些公告是基础设施供应商提供即插即用AI基础设施这一更广泛趋势的一部分,将硬件、存储、网络和AI框架结合在预测试配置中。
戴尔表示,更新的AI数据平台与非结构化数据引擎以及配备RTX PRO 6000 GPU的PowerEdge R7725和R770服务器将于今年晚些时候推出。HPE表示其更新的Cray XD系统和GreenLake AI配置也将在未来几个月内推出。
Q&A
Q1:戴尔AI数据平台的新功能有什么特点?
A:戴尔AI数据平台新增了非结构化数据引擎,与Elasticsearch合作开发,提供实时、安全的大规模非结构化数据集访问,支持高级向量搜索、语义检索和混合关键词搜索。同时集成GPU加速和英伟达NeMo Retriever微服务,用于检索增强生成应用。
Q2:英伟达RTX PRO 6000 Blackwell GPU性能提升有多大?
A:基于英伟达Blackwell架构的RTX PRO 6000 GPU在大语言模型推理方面可提供高达6倍的Token吞吐量,相比上一代产品具备更高的工程仿真性能,并支持更多并发用户,专为AI推理、视觉计算、工程仿真和虚拟工作站工作负载设计。
Q3:HPE的智能体AI和物理AI有什么区别?
A:智能体AI是指能够自主完成任务或在少量监督下完成任务的系统,而物理AI则涉及AI控制机器人和其他硬件系统。HPE的新配置支持两种AI应用,使用Nemotron模型支持智能体AI,使用Cosmos模型支持物理AI应用。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。