近期 Nvidia 的股价遭受重创,但在人工智能 (AI) 硬件市场中仍然占据主导地位。在公司最新发布的 AI 数据平台中,"主动式 AI" 和"推理"成为最新的热门词汇,各大存储供应商也纷纷追随其后。
在加利福尼亚州圣何塞举行的 GTC 2025 大会上,Nvidia 的核心发布产品是面向 AI 数据中心处理的下一代 Blackwell Ultra 图形处理器 (GPU)。该产品专为 DeepSeek R1 等推理模型设计,可提升内存和推理性能。
以 Blackwell Ultra 为核心,Nvidia 还展望了 GB/NVL 产品线中一系列机架级平台产品,以及新的 DGX 系列 SuperPod 集群、工作站、网络接口卡 (NIC)、笔记本电脑 GPU 等产品。
这些举措某种程度上是对 DeepSeek 比 ChatGPT 更高效且对 GPU 需求更低这一现象的回应。Nvidia 利用这一消息强调,我们需要更快的 AI 处理能力来充分发挥其潜力。
对大型存储供应商来说,这些输入/输出需求就像制药公司需要疾病一样重要。AI 训练和推理需要处理海量数据,这就需要大量存储设备,并且要求具备非常高的数据访问速度和容量。
因此,GTC 2025 存储领域的核心公告是 Nvidia AI 数据平台参考架构,该架构允许第三方供应商(尤其是存储厂商)按照 GPU 巨头的规格构建设备,以支持包括主动式和推理技术在内的工作负载。
与 Nvidia 合作的厂商包括 DDN、Dell、HPE、Hitachi Vantara、IBM、NetApp、Pure Storage、Vast Data 和 Weka。
这些存储厂商在 GTC 期间的具体发布内容如下:
DDN 推出了 Inferno 高速对象存储设备,将 Nvidia 的 Spectrum-X 交换机添加到 DDN Infinia 存储中。Infinia 基于键值存储,目前仅支持 S3 对象存储访问协议。
Dell 发布了一系列产品,包括面向 AI 用例的 20 petaflop 级 PC。在存储方面,重点是其 PowerScale 横向扩展文件系统现已通过 Nvidia 云合作伙伴计划企业 AI 工厂部署验证。
HPE 重点推出了新的"统一数据层",该层将覆盖企业的结构化和非结构化数据,同时宣布了一些升级,即在其 MP B10000 阵列中实现统一块存储和文件访问。
Hitachi Vantara 借此机会推出了 Hitachi iQ M 系列,该系列结合了其虚拟存储平台 One (VSP One) 存储和 Nvidia AI Enterprise 软件,并将集成 Nvidia AI 数据平台参考设计,面向主动式 AI。
IBM 宣布了与 Nvidia 的新合作,包括基于 Nvidia AI 数据平台参考设计的计划集成。IBM 计划为其混合云基础设施产品 IBM Fusion 推出内容感知存储功能,并将扩展其 Watsonx 集成。此外,还计划为 AI 客户项目提供新的 IBM 咨询能力。
NetApp 宣布获得 Nvidia SuperPOD 验证。特别是 AFF A90 产品获得了 DGX SuperPOD 验证。同时,NetApp 的 AIPod 获得了新的 Nvidia 认证存储认证,以支持 Nvidia 企业参考架构。
Pure Storage 在发布 FlashBlade//Exa 之后,趁机宣布与 Nvidia AI 数据平台的兼容性。
Vast Data 推出了企业级 AI Stack,该产品结合了 Vast 的 InsightEngine 和 Nvidia DGX 产品、BlueField-3 DPU 以及 Spectrum-X 网络。
Weka 宣布已获得 Nvidia GB200 部署的数据存储认证。WEKApod Nitro 数据平台设备已通过 Nvidia 云合作伙伴 (NCP) 部署认证,支持 HGX H200、B200 和 GB200 NVL72 产品。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。