两大企业基础设施供应商宣布产品线扩展,为客户大规模部署人工智能工作负载提供更多选择。
戴尔科技公司和慧与公司的新产品包括融合英伟达公司最新图形处理器技术和AI软件的系统及软件更新,配合其他合作伙伴的工具,帮助企业从AI实验阶段向生产阶段转型。
戴尔AI数据平台升级
戴尔表示正在更新其AI数据平台,新增组件旨在改善非结构化数据摄取、转换、检索和计算性能。该平台设计用于处理完整的AI工作负载生命周期,从数据摄取到智能体推理再到知识检索。
与Elasticsearch公司合作开发的新型非结构化数据引擎提供对大规模非结构化数据集的实时、安全访问,支持高级向量搜索、语义检索和混合关键词搜索。该引擎集成GPU加速和英伟达NeMo Retriever微服务,用于检索增强生成应用。
戴尔AI数据平台还集成了Starburst Data公司的联邦SQL引擎,可在不移动数据的情况下查询多个数据源,以及基于Apache Spark的数据处理引擎,用于批处理和实时分析。这些与戴尔的PowerScale和ObjectScale存储系统协同工作,支持结构化、半结构化和非结构化数据。
Blackwell架构加持的硬件
在硬件方面,戴尔推出配备英伟达RTX PRO 6000 Blackwell服务器版GPU的PowerEdge R7725和R770服务器。这些GPU基于英伟达Blackwell架构构建,专为AI推理、视觉计算、工程仿真和虚拟工作站工作负载设计。戴尔表示,与上一代相比,新GPU在大语言模型推理方面可提供高达6倍的Token吞吐量,同时具备更高的工程仿真性能,支持更多并发用户。
R7725将成为首个集成英伟达AI数据平台参考设计的2U服务器,这是构建GPU加速基础设施的验证蓝图。戴尔表示,这种组合可为快速推理、语义搜索和大型AI工作负载提供即插即用系统。
HPE瞄准大规模AI应用
HPE表示正在扩展其AI优化系统产品线,新配置同样使用英伟达Blackwell架构GPU以及最新的英伟达AI模型。该公司称这些更新旨在支持智能体AI(自主完成任务或在少量监督下完成任务的系统)和物理AI(涉及AI控制机器人和其他硬件系统)。
HPE还为其Cray XD670和XD675服务器增加新选项,可配置英伟达GB200 NVL72系统用于大规模AI训练,或配置RTX PRO 6000 Blackwell GPU用于推理和较小规模工作负载。HPE表示两者都预集成了英伟达的AI Enterprise软件套件,包括NeMo框架和预训练模型,如用于智能体AI的英伟达Nemotron和用于物理AI应用的Cosmos。
该公司还在更新其GreenLake AI产品以支持新系统。GreenLake是部署AI基础设施的按需付费模型,允许企业根据需要扩展GPU资源,同时将工作负载保持在本地或托管设施中。HPE表示其私有云AI将支持最新版本的Nemotron和Cosmos模型,以及最新的英伟达视频搜索和摘要蓝图。
行业趋势
两家公司的公告都围绕将英伟达Blackwell一代GPU和相关AI软件集成到面向企业的系统中。戴尔专注于将AI模型连接到高质量企业数据,特别是非结构化数据,而HPE则强调智能体和物理AI模型的大规模训练和部署。
这些公告是基础设施供应商提供即插即用AI基础设施这一更广泛趋势的一部分,将硬件、存储、网络和AI框架结合在预测试配置中。
戴尔表示,更新的AI数据平台与非结构化数据引擎以及配备RTX PRO 6000 GPU的PowerEdge R7725和R770服务器将于今年晚些时候推出。HPE表示其更新的Cray XD系统和GreenLake AI配置也将在未来几个月内推出。
Q&A
Q1:戴尔AI数据平台的新功能有什么特点?
A:戴尔AI数据平台新增了非结构化数据引擎,与Elasticsearch合作开发,提供实时、安全的大规模非结构化数据集访问,支持高级向量搜索、语义检索和混合关键词搜索。同时集成GPU加速和英伟达NeMo Retriever微服务,用于检索增强生成应用。
Q2:英伟达RTX PRO 6000 Blackwell GPU性能提升有多大?
A:基于英伟达Blackwell架构的RTX PRO 6000 GPU在大语言模型推理方面可提供高达6倍的Token吞吐量,相比上一代产品具备更高的工程仿真性能,并支持更多并发用户,专为AI推理、视觉计算、工程仿真和虚拟工作站工作负载设计。
Q3:HPE的智能体AI和物理AI有什么区别?
A:智能体AI是指能够自主完成任务或在少量监督下完成任务的系统,而物理AI则涉及AI控制机器人和其他硬件系统。HPE的新配置支持两种AI应用,使用Nemotron模型支持智能体AI,使用Cosmos模型支持物理AI应用。
好文章,需要你的鼓励
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。