IBM 的并行文件系统 Storage Scale 现已包含内容感知功能,以增强其检索增强生成 (RAG) 能力。
Storage Scale 在高性能计算 (HPC) 和需要类似高速文件数据访问的企业用例中有着悠久的历史,包括大语言模型 (LLM) 训练和推理。Storage Scale v5.2.1 增加了高性能 S3 对象存储支持。该产品还支持 Nvidia 的 GPUDirect 主机服务器内存旁路协议。去年 9 月,IBM 将其 watsonx 数据湖仓与 Storage Scale 结合,在文件访问覆盖层下提供对象存储功能。目标是提高 AI 训练和推理工作负载的速度。
现在 IBM 已经扩展了与 Nvidia 的合作,宣布:
- 基于 Nvidia 的 AI-Q 蓝图和 NeMo Retriever 微服务构建的内容感知 Storage Scale (CAS) 功能。
- 通过支持 Nvidia NIM 微服务扩展 watsonx 集成,实现跨多个云环境的外部 AI 模型集成。IBM watsonx.governance 将允许企业监控和管理任何托管环境中的 NIM 微服务。
- AI focused 的 IBM 咨询能力,Nvidia 通过 Nvidia Blueprints 提供 AI 集成服务,使用 Red Hat OpenShift 和 Nvidia AI 优化混合云环境中的计算密集型 AI 工作负载。
- IBM Cloud 上提供 Nvidia H200 GPU 实例。
- Storage Scale 支持 Nvidia 的 AI 数据平台参考设计。
IBM 院士、副总裁兼首席技术官 Vincent Hsu 在谈到 CAS 时表示,它基于 IBM Research 和 Nvidia 的工作。由于 IBM 现在已经"在存储系统中嵌入了计算、数据管道和向量数据库功能,CAS 减少了数据移动和延迟,从而提高了效率。"
Storage Scale 可以从多个来源获取数据。它具有"全局数据抽象服务,旨在提供来自多个数据源和多个位置的连接,将数据从 IBM 和第三方存储环境引入您的 AI 工厂。"
CAS 可以使用 AI-Q 和 NeMo Retriever "从文本、图表、图形甚至图像中提取信息"。它能够"监视其他存储系统或云中的文件夹,以识别发生的变化,自动运行预构建的管道,并仅更新向量数据库中的变化,确保数据对 AI 应用程序是最新的,同时高效地使用 Nvidia 加速计算。"
IBM Storage Scale 将使用提取和增强的数据响应查询,通过 BlueField-3 DPU 和 Spectrum-X 网络加速 GPU 和存储之间的通信。
CAS 可以检测多个非结构化数据存储中的变化,将修改后的数据转换为向量,并将其提供给 AI 模型,以改善对用户或 AI 助手请求的 RAG 响应。正如 Hsu 所说:"通过应用创新的自然语言处理技术,我们开发了更有效地从各种内容中提取语义含义的方法,使更新 AI 工具变得更容易,从而提高答案的质量。"
Nvidia 存储网络技术副总裁 Rob Davis 表示:"AI 代理需要快速访问、获取和处理大规模数据,而今天,这些步骤发生在不同的孤岛中。IBM 的内容感知存储与 Nvidia AI 的集成在优化的网络结构中协调数据和计算,通过智能、可扩展的系统克服孤岛,实现近实时推理,从而实现响应式 AI 推理。"
Storage Scale 内容感知功能将嵌入到下一次 IBM Fusion 更新中,预计在第二季度全面上市。感兴趣的各方可以在这里注册参加定于 2025 年 4 月 8 日东部时间 11:00 举行的网络研讨会"AI First Storage – 通过内容感知存储增强 AI 结果"。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。