为了加速客户的AI管道和工作负载,戴尔已将其AI数据平台与Elasticsearch进行集成。同时,PowerEdge R7725服务器运行英伟达RTX Pro 6000 Blackwell GPU,并采用了英伟达的AI数据平台参考设计。
戴尔AI数据平台即将配备由戴尔和Elastic联合构建的非结构化数据引擎,该引擎具备向量搜索、语义检索和混合关键词搜索功能。它将利用GPU加速,为推理、分析和智能搜索提供对大规模非结构化数据集的实时、安全访问。这个非结构化数据引擎与其他工具协同工作,包括用于查询分散结构化数据的联邦SQL引擎、处理大规模数据转换的处理引擎,以及为快速AI就绪访问而设计的存储系统。
Elastic首席产品官Ken Exner表示:"通过将Elasticsearch向量数据库作为戴尔AI数据平台非结构化数据引擎的核心,Elastic将为交钥匙架构带来向量搜索和混合检索功能,在海量数据集上实现自然语言搜索、实时推理和智能资产发现。戴尔在企业市场的深厚根基使他们成为我们的天然合作伙伴,我们共同致力于帮助客户部署高性能、精确且可投入生产的AI。"
GPU加速搜索可以使用R7725服务器,戴尔表示该服务器"非常适合加速企业工作负载,涵盖视觉计算、数据分析和虚拟工作站"。通常在这类工作中,服务器将配备SSD存储——从1.6TB到30.72TB的NVMe,以及一系列SATA存储设备。SAS磁盘驱动器也可选配。这些服务器可以连接到戴尔的外部PowerScale(横向扩展NAS)和ObjectScale(S3兼容对象存储),以及它们的大容量结构化、半结构化和非结构化数据存储。
RTX Pro 6000是一款工作站GPU,提供3,753万亿次稀疏FP4计算性能,配备96GB GDDR7内存,内存带宽达1.6TBps。英伟达的AI数据平台参考设计将存储与其硬件和软件集成,使AI智能体能够提供实时响应。英伟达的组件包括Blackwell GPU、BlueField-3 DPU、Spectrum-X网络和英伟达AI Enterprise软件。软件部分包括NeMo Retriever和NIM微服务,以及AI-Q蓝图。
R7725以及戴尔的R770服务器可以运行英伟达AI推理模型,如用于智能体AI的最新Nemotron模型和用于物理AI的Cosmos世界基础模型。
所有这些使戴尔能够声称,此次AI数据平台的更新将"增强非结构化数据的摄取、转换、检索和计算性能,简化AI开发和部署——将海量数据集转化为可靠、高质量的实时智能,服务于生成式AI"。
这两项更新"将帮助支持企业的AI之旅,从数据摄取到推理,简化数据准备,统一跨孤岛的数据访问,并提供端到端的企业级性能"。
戴尔AI数据平台中的非结构化数据引擎将在今年晚些时候推出。配备英伟达RTX Pro 6000 GPU的戴尔PowerEdge R7725和R770服务器将在今年晚些时候在全球上市。
Q&A
Q1:戴尔AI数据平台的非结构化数据引擎有什么功能?
A:戴尔AI数据平台的非结构化数据引擎由戴尔和Elastic联合构建,具备向量搜索、语义检索和混合关键词搜索功能。它利用GPU加速,为推理、分析和智能搜索提供对大规模非结构化数据集的实时、安全访问,能够实现自然语言搜索、实时推理和智能资产发现。
Q2:RTX Pro 6000 GPU的性能参数如何?
A:RTX Pro 6000是一款工作站GPU,提供3,753万亿次稀疏FP4计算性能,配备96GB GDDR7内存,内存带宽达1.6TBps。这款GPU集成在戴尔PowerEdge R7725服务器中,适用于视觉计算、数据分析和虚拟工作站等加速企业工作负载。
Q3:戴尔AI数据平台何时可以使用?
A:戴尔AI数据平台中的非结构化数据引擎将在今年晚些时候推出。配备英伟达RTX Pro 6000 GPU的戴尔PowerEdge R7725和R770服务器也将在今年晚些时候在全球上市,为企业AI应用提供完整的硬件和软件解决方案。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。