NetApp 在其 AIPod 系列 ONTAP AI 系统中新增了一款成本更低的 AIPod Mini,为部门级和团队级生成式 AI 工作负载项目提供计算与存储基础。
AIPod 系列最初以与 Nvidia 合作的 AIPod 作为起点,该系统是一款已认证的 Nvidia BasePOD 系统,采用该 GPU 制造商的 DGX H100 GPU 服务器,并连接至 NetApp 的 AFF C-Series 高容量闪存系统。随后,该系列支持了更快的 A-Series 闪存阵列,并推出了 Lenovo AIPod 版本,该版本配备 Nvidia OVX,专为 GenAI 微调、推理、检索增强生成 (RAG) 以及部署定制化聊天机器人、辅助驾驶员和其他 GenAI 应用而打造。去年九月,ONTAP 实现了与 AI 数据流水线的直接集成,自动生成矢量嵌入;而在今年三月,NetApp 的 AIPod 获得了 Nvidia 认证存储称号,以支持 Nvidia 企业参考架构所需的高性能存储。如今,我们迎来了面向部门级 GenAI 推理工作负载、以 Intel 为导向的 AIPod Mini。
NetApp 首席商务官 Dallas Olson 表示: “我们的使命是为各层级的每个团队解锁 AI,而不受传统复杂性或成本的障碍限制。搭载 Intel 技术的 NetApp AIPod Mini 为客户提供了一个解决方案,不仅改变了团队使用 AI 的方式,同时也使定制、部署和维护变得更加简单。我们正在将专有企业数据转化为强大的商业成果。”
该公司指出,AIPod Mini “使企业能够通过预封装的检索增强生成 (RAG) 工作流直接与其业务数据进行交互,该工作流将生成式 AI 与专有信息相结合,从而简化 AI 在特定应用中的部署和使用,例如: o 为法律团队自动化部分文档起草与研究工作, o 为零售团队实现个性化购物体验和动态定价, o 为制造单位优化预测性维护和供应链。”
据我们了解,AIPod Mini 旨在比完整规模的 Nvidia GPU 环境更易使用且成本更低。它专为部门或业务单元预算设计,并具有低门槛的可扩展性。将会提供一个预先验证的参考设计,结合其 RAG 工作流,可“实现快速设置、无缝集成与定制,无需额外负担。”
Intel 美洲区域企业副总裁兼总经理 Greg Ernst 表示: “通过将 Intel Xeon 处理器与 NetApp 强大的数据管理及存储能力相结合,NetApp AIPod Mini 解决方案为业务单元在应对其独特挑战时提供了部署 AI 的契机。该方案使用户能够利用 AI,而无需承担庞大基础设施或多余技术复杂性的负担。”
AIPod Mini 集成了 Intel 处理器与 NetApp 的全闪存 ONTAP 存储系统,并基于企业级 AI 开放平台 (OPEA) 框架构建。
该 CPU 为 Intel Xeon 6 ,采用 2 核架构,利用 Performance 或 P 核 (Granite Rapids) ,其中包括 Advanced Matrix Extensions (AMX) ,以及 Efficient 或 E 核 (Sierra Forest) 。其中,P 核支持生成式 AI 大语言模型 (LLM) 的工作负载。
OPEA 是在去年四月设立的,作为 Intel 在 LF AI & Data Foundation(LF 代表 Linux Foundation)下的开源沙盒项目,旨在创建一个标准化、多供应商且可组合的 AI 应用开发与部署框架,支持 RAG,并具备模块化微服务和架构蓝图。从某种程度上讲,它与 Nvidia 的生成式 AI 生态系统形成竞争关系,其参考实现均针对 Intel 硬件进行了优化。在 OPEA 中,除 NetApp 与 Nutanix 外没有其他存储阵列系统供应商。除非其他供应商加入该组织,否则我们不会看到 NetApp 竞争对手推出 OPEA 风格的 AIPod Mini 系统。
搭载 Intel 的 NetApp AIPod Mini 将于 2025 年夏季通过部分 NetApp 全球渠道合作伙伴上市。初期发布合作伙伴将包括两家分销商 – Arrow Electronics 和 TD SYNNEX – 以及五家集成合作伙伴:Insight Partners、CDW USA、CDW UK&I、Presidio,以及 Long View Systems,后者将提供专门支持与服务。
目前我们尚未获得具体的配置细节。点击此处了解更多信息。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。