NetApp 在其 AIPod 系列 ONTAP AI 系统中新增了一款成本更低的 AIPod Mini,为部门级和团队级生成式 AI 工作负载项目提供计算与存储基础。
AIPod 系列最初以与 Nvidia 合作的 AIPod 作为起点,该系统是一款已认证的 Nvidia BasePOD 系统,采用该 GPU 制造商的 DGX H100 GPU 服务器,并连接至 NetApp 的 AFF C-Series 高容量闪存系统。随后,该系列支持了更快的 A-Series 闪存阵列,并推出了 Lenovo AIPod 版本,该版本配备 Nvidia OVX,专为 GenAI 微调、推理、检索增强生成 (RAG) 以及部署定制化聊天机器人、辅助驾驶员和其他 GenAI 应用而打造。去年九月,ONTAP 实现了与 AI 数据流水线的直接集成,自动生成矢量嵌入;而在今年三月,NetApp 的 AIPod 获得了 Nvidia 认证存储称号,以支持 Nvidia 企业参考架构所需的高性能存储。如今,我们迎来了面向部门级 GenAI 推理工作负载、以 Intel 为导向的 AIPod Mini。
NetApp 首席商务官 Dallas Olson 表示: “我们的使命是为各层级的每个团队解锁 AI,而不受传统复杂性或成本的障碍限制。搭载 Intel 技术的 NetApp AIPod Mini 为客户提供了一个解决方案,不仅改变了团队使用 AI 的方式,同时也使定制、部署和维护变得更加简单。我们正在将专有企业数据转化为强大的商业成果。”
该公司指出,AIPod Mini “使企业能够通过预封装的检索增强生成 (RAG) 工作流直接与其业务数据进行交互,该工作流将生成式 AI 与专有信息相结合,从而简化 AI 在特定应用中的部署和使用,例如: o 为法律团队自动化部分文档起草与研究工作, o 为零售团队实现个性化购物体验和动态定价, o 为制造单位优化预测性维护和供应链。”
据我们了解,AIPod Mini 旨在比完整规模的 Nvidia GPU 环境更易使用且成本更低。它专为部门或业务单元预算设计,并具有低门槛的可扩展性。将会提供一个预先验证的参考设计,结合其 RAG 工作流,可“实现快速设置、无缝集成与定制,无需额外负担。”
Intel 美洲区域企业副总裁兼总经理 Greg Ernst 表示: “通过将 Intel Xeon 处理器与 NetApp 强大的数据管理及存储能力相结合,NetApp AIPod Mini 解决方案为业务单元在应对其独特挑战时提供了部署 AI 的契机。该方案使用户能够利用 AI,而无需承担庞大基础设施或多余技术复杂性的负担。”
AIPod Mini 集成了 Intel 处理器与 NetApp 的全闪存 ONTAP 存储系统,并基于企业级 AI 开放平台 (OPEA) 框架构建。
该 CPU 为 Intel Xeon 6 ,采用 2 核架构,利用 Performance 或 P 核 (Granite Rapids) ,其中包括 Advanced Matrix Extensions (AMX) ,以及 Efficient 或 E 核 (Sierra Forest) 。其中,P 核支持生成式 AI 大语言模型 (LLM) 的工作负载。
OPEA 是在去年四月设立的,作为 Intel 在 LF AI & Data Foundation(LF 代表 Linux Foundation)下的开源沙盒项目,旨在创建一个标准化、多供应商且可组合的 AI 应用开发与部署框架,支持 RAG,并具备模块化微服务和架构蓝图。从某种程度上讲,它与 Nvidia 的生成式 AI 生态系统形成竞争关系,其参考实现均针对 Intel 硬件进行了优化。在 OPEA 中,除 NetApp 与 Nutanix 外没有其他存储阵列系统供应商。除非其他供应商加入该组织,否则我们不会看到 NetApp 竞争对手推出 OPEA 风格的 AIPod Mini 系统。
搭载 Intel 的 NetApp AIPod Mini 将于 2025 年夏季通过部分 NetApp 全球渠道合作伙伴上市。初期发布合作伙伴将包括两家分销商 – Arrow Electronics 和 TD SYNNEX – 以及五家集成合作伙伴:Insight Partners、CDW USA、CDW UK&I、Presidio,以及 Long View Systems,后者将提供专门支持与服务。
目前我们尚未获得具体的配置细节。点击此处了解更多信息。
好文章,需要你的鼓励
Xbench是知名投资机构红杉中国推出一款全新的AI基准测试工具,旨在真实地反映AI的客观能力,其在评估和推动AI系统提升能力上限与技术边界的同时,会重点量化AI系统在真实场景的效用价值,并采用长青评估的机制,去捕捉AI产品的关键突破。
这项研究首次将在线强化学习成功应用于流匹配模型,通过巧妙的ODE到SDE转换和去噪减少策略,显著提升了AI图像生成的精确度和可控性。在复合场景生成、文字渲染等任务上取得突破性进展,为AI生成领域开辟了新的技术路径。
Atlassian总裁Anu Bharadwaj在Transform 2025大会上分享了公司AI智能体规模化的实践经验。她强调,成功部署AI智能体需要营造实验文化,而非仅依靠自上而下的指令。Atlassian通过Rovo Studio平台为各团队提供了构建定制化智能体的环境,创造心理安全的工作氛围,鼓励员工大胆尝试和迭代。公司客户通过该平台显著提升了工作效率,建筑行业客户将路线图创建时间缩短75%。
这篇由阿里巴巴集团联合多所知名高校发表的综述论文,系统梳理了统一多模态理解与生成模型的最新发展。研究将现有模型分为扩散、自回归和混合三大类型,详细分析了不同图像编码策略的特点,整理了相关数据集和评估基准,并深入探讨了当前面临的技术挑战。