NetApp 在其 AIPod 系列 ONTAP AI 系统中新增了一款成本更低的 AIPod Mini,为部门级和团队级生成式 AI 工作负载项目提供计算与存储基础。
AIPod 系列最初以与 Nvidia 合作的 AIPod 作为起点,该系统是一款已认证的 Nvidia BasePOD 系统,采用该 GPU 制造商的 DGX H100 GPU 服务器,并连接至 NetApp 的 AFF C-Series 高容量闪存系统。随后,该系列支持了更快的 A-Series 闪存阵列,并推出了 Lenovo AIPod 版本,该版本配备 Nvidia OVX,专为 GenAI 微调、推理、检索增强生成 (RAG) 以及部署定制化聊天机器人、辅助驾驶员和其他 GenAI 应用而打造。去年九月,ONTAP 实现了与 AI 数据流水线的直接集成,自动生成矢量嵌入;而在今年三月,NetApp 的 AIPod 获得了 Nvidia 认证存储称号,以支持 Nvidia 企业参考架构所需的高性能存储。如今,我们迎来了面向部门级 GenAI 推理工作负载、以 Intel 为导向的 AIPod Mini。
NetApp 首席商务官 Dallas Olson 表示: “我们的使命是为各层级的每个团队解锁 AI,而不受传统复杂性或成本的障碍限制。搭载 Intel 技术的 NetApp AIPod Mini 为客户提供了一个解决方案,不仅改变了团队使用 AI 的方式,同时也使定制、部署和维护变得更加简单。我们正在将专有企业数据转化为强大的商业成果。”
该公司指出,AIPod Mini “使企业能够通过预封装的检索增强生成 (RAG) 工作流直接与其业务数据进行交互,该工作流将生成式 AI 与专有信息相结合,从而简化 AI 在特定应用中的部署和使用,例如: o 为法律团队自动化部分文档起草与研究工作, o 为零售团队实现个性化购物体验和动态定价, o 为制造单位优化预测性维护和供应链。”
据我们了解,AIPod Mini 旨在比完整规模的 Nvidia GPU 环境更易使用且成本更低。它专为部门或业务单元预算设计,并具有低门槛的可扩展性。将会提供一个预先验证的参考设计,结合其 RAG 工作流,可“实现快速设置、无缝集成与定制,无需额外负担。”
Intel 美洲区域企业副总裁兼总经理 Greg Ernst 表示: “通过将 Intel Xeon 处理器与 NetApp 强大的数据管理及存储能力相结合,NetApp AIPod Mini 解决方案为业务单元在应对其独特挑战时提供了部署 AI 的契机。该方案使用户能够利用 AI,而无需承担庞大基础设施或多余技术复杂性的负担。”
AIPod Mini 集成了 Intel 处理器与 NetApp 的全闪存 ONTAP 存储系统,并基于企业级 AI 开放平台 (OPEA) 框架构建。
该 CPU 为 Intel Xeon 6 ,采用 2 核架构,利用 Performance 或 P 核 (Granite Rapids) ,其中包括 Advanced Matrix Extensions (AMX) ,以及 Efficient 或 E 核 (Sierra Forest) 。其中,P 核支持生成式 AI 大语言模型 (LLM) 的工作负载。
OPEA 是在去年四月设立的,作为 Intel 在 LF AI & Data Foundation(LF 代表 Linux Foundation)下的开源沙盒项目,旨在创建一个标准化、多供应商且可组合的 AI 应用开发与部署框架,支持 RAG,并具备模块化微服务和架构蓝图。从某种程度上讲,它与 Nvidia 的生成式 AI 生态系统形成竞争关系,其参考实现均针对 Intel 硬件进行了优化。在 OPEA 中,除 NetApp 与 Nutanix 外没有其他存储阵列系统供应商。除非其他供应商加入该组织,否则我们不会看到 NetApp 竞争对手推出 OPEA 风格的 AIPod Mini 系统。
搭载 Intel 的 NetApp AIPod Mini 将于 2025 年夏季通过部分 NetApp 全球渠道合作伙伴上市。初期发布合作伙伴将包括两家分销商 – Arrow Electronics 和 TD SYNNEX – 以及五家集成合作伙伴:Insight Partners、CDW USA、CDW UK&I、Presidio,以及 Long View Systems,后者将提供专门支持与服务。
目前我们尚未获得具体的配置细节。点击此处了解更多信息。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。