企业领导者正面临一个日益严峻的挑战:AI 基础设施正变得越来越复杂。随着公司将大语言模型、RAG 以及自主代理等技术从试点项目迁移到生产系统,他们发现 AI 工作负载在架构上呈现出碎片化的状态。
各个团队现在必须协调多个组件,从存储系统、流处理管道、推理运行时、向量数据库到编排层,才能部署单一的 AI 驱动工作流程。这种复杂性正在延缓部署进程并推高成本。
VAST Data 认为它找到了答案:公司最近推出的统一“AI Operating System”,将存储、数据管理和代理编排功能合并到了一个平台上。这个概念虽然十分吸引人,但在一个越来越倾向于开放、可组合系统的市场中,VAST 那种紧密集成的方法引发了一些关键问题。
VAST 的整合型 AI 解决方案
VAST 主要以高性能存储解决方案闻名,如今正雄心勃勃地向技术栈的更高层进军。该公司的 AI Operating System 将存储、实时数据处理、支持向量功能的数据库以及原生代理编排引擎整合成一个平台。
其价值主张十分直观:把 AI 基础设施整合到一个跨云、边缘和本地环境均可运行的单一控制层中。这种方法有望降低部署复杂性,消除集成难题,并最小化 AI 操作中的延迟。
该平台具备一个用于部署 AI 代理的运行时环境、用于构建代理管道的低代码界面,以及一个根据数据位置和 GPU 可用情况编排计算任务的联合数据层。对于那些在 AI 基础设施扩散问题上苦苦挣扎的企业来说,这将大大缩短部署时间并降低运营成本。
开放生态系统的挑战
AI 基础设施市场正越来越强调开放性和互操作性。大多数企业团队正在构建基于灵活框架的系统,使用模块化工具使得检索器、向量数据库、嵌入模型及代理框架等组件可以根据具体需求和现有基础设施进行灵活组合。在一个变化如此迅速的企业 AI 环境中,这种方法十分理智。
而 VAST 采取了另一种策略,他们假定企业将这些元素在一个供应商平台下整合。这样的假设存在风险。近年来,灵活性而非统一性一直是 AI 工具领域的主要特征。虽然 VAST 支持 S3、Kafka 和 SQL 等常见数据标准,但其更深层次的集成点,尤其是在代理编排方面,仍然是专有的。
对 Nvidia 依赖性的疑问
从 VAST 的战略来看,其似乎与 Nvidia 的生态系统紧密相连。在其公告中,公司强调了在 GPU 密集环境中的基础设施部署案例,例如 CoreWeave 以及主要超大规模云服务商。它对 VLLM(针对 NVIDIA 硬件优化的高性能推理引擎)的支持和对 GPUDirect 型优化的重视表明其在很大程度上依赖于 NVIDIA 的架构。
这并不一定是个问题,毕竟 Nvidia 在企业 AI 基础设施领域占据主导地位。然而,这也可能限制 VAST 对于那些正在探索替代加速器(如 AMD Instinct、Intel Gaudi 或 AWS Trainium)的组织的吸引力,同时也可能与 Nvidia 本身的产品线形成竞争重叠。
随着 Nvidia 推出 Enterprise AI、NIMs 和 Dynamo,这家芯片巨头实际上在提供自己的 AI Operating System,使得广大合作伙伴生态系统能够提供类似的功能。一些买家可能会更倾向于将 Nvidia 的软件栈与经过精心挑选的顶级基础设施工具搭配使用。
尽管目前 VAST 看似与 Nvidia 的 AI 策略紧密相连,但未来未必始终如此。当被问及与 Nvidia 生态系统的绑定程度时,VAST 通过一位不愿透露姓名的发言人表示,“我们一直强调我们的软件栈支持行业标准,并符合客户的需求。这意味着我们打算认证包括 Nvidia、AMD 及其他供应商在内的硬件,以满足客户的各种需求。”
竞争环境
VAST 正试图通过全方位解决 AI 基础设施问题,从而实现对传统竞争对手的跨越式超越。但这也使其直接与那些在应用层生态系统更强大、在存储领域更专注的供应商展开竞争。很难找到与 VAST 所宣布方案完全一致的直接竞争对手,因为 VAST 正面临着与更模块化方法的竞争。
例如,企业 AI 基础设施的许多动力都是基于将最佳组件整合到 Nvidia 所称的“AI 工厂”中。大多数一线 OEM 都在追随 Nvidia 的脚步,Dell Technologies 最近就宣布了其 AI Factory 2.0。该方案使企业能够部署经过验证的硬件基础设施,同时又保持了利用针对目标工作负载的最佳数据管理工具的灵活性。
在 AI 工厂的基础上,像 WEKA 这样的前沿基础设施公司正在叠加一些令人印象深刻的 AI 定向功能,比如他们最近宣布的 Augmented Memory Grid。这一功能利用其数据基础设施作为 GPU 键值缓存的扩展,实现了 LLM 中每个 GPU 上下文窗口的无缝扩展。
另一方面,IBM 等公司正通过 watsonx Orchestrate 等工具推动企业级安全代理式 AI 的边界,该工具在最近的 IBM Think 客户大会上亮相。
IBM 的方法支持一个开放的代理框架,不仅支持 Nvidia 以及更开放的 llamastack 框架,还能轻松集成到几乎任何企业 AI 环境中。在这一快速演进的领域中,还有许多其他的例子。
分析师观点
VAST 将其全新 AI Operating System 定位为“思维机器的操作系统”,这一定位无疑充满了雄心。该平台解决了一个现实的市场需求:降低供应商复杂性和消除 AI 基础设施集成难题。对于那些在大规模 GPU 环境下运行并有严格控制要求的组织(例如 VAST 已经在特殊 GPU 云提供商中获得早期成功),这一方法将会非常有价值。
VAST 的 AI Operating System 体现了越来越多的人认识到,AI 基础设施需要进行根本性的架构变革。该公司正努力从基础上构建这一新架构。对于那些希望在企业级规模下实现 AI 数据管道统一控制的组织来说,这可能是一个极具吸引力的解决方案。
但对于更广泛的市场,特别是那些优先考虑开放框架、多供应商灵活性或模块化创新的企业来说,VAST 的方法可能显得过于限制。该平台需要迅速进化,以适应外部代理框架、像 MCP 这样的新兴标准以及能够让企业保持现有编排投资的集成路径。VAST 表示,他们将根据市场需求进行调整。
如果 VAST 能在保持架构凝聚力的同时开放其生态系统,那么它或许能够定义出一类全新的企业 AI 基础设施。但成功绝非易事。目前的市场动态更青睐灵活性而非整合,不过这一趋势可能随着时间推移而发生变化。
虽然企业在采用 VAST 新解决方案时可能会持谨慎态度,但该公司正在进行一项强有力的长期赌注。很多客户会从 VAST 的 AI Operating System 中发现价值,而且这一价值将随着时间不断增加。
几乎每一次技术转型都会导致整合,AI 很可能也会遵循这一轨迹。VAST 提前进入市场,宣称获得了先发优势。对于一家充满雄心的公司来说,这无疑是一场值得关注并持续观察的强势进攻。
披露声明:Steve McDowell 是一名行业分析师,NAND Research 是一家行业分析机构,曾或正在为包括 VAST Data、Dell Technologies、IBM、WEKA 在内的多家科技公司提供研究、分析及咨询服务。McDowell 先生未持有任何本文提及公司的股票。
好文章,需要你的鼓励
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。
Nvidia公布2026财年一季度业绩,营收441亿美元,同比增长69%;新AI超算与显卡产品陆续亮相,尽管出口管控对H20业务造成影响,但整体AI市场前景依然乐观。
Cerebras WSE 芯片拥有 40 亿晶体管,推理速度达到 NVIDIA 集群的约 2.5 倍,刷新了全球 AI 推理速度记录,为复杂 AI 代理应用提供高性能计算支持。
这项研究提出了"B-score",一种新指标用于检测大语言模型中的偏见。研究人员发现,当模型能看到自己之前对同一问题的回答时(多轮对话),它能够减少偏见并给出更平衡的答案。B-score计算单轮与多轮对话中答案概率的差异,无需外部标注即可识别有偏见的回答。实验证明,将B-score用于回答验证可显著提高准确率,在标准基准测试上平均提升2.9个百分点。这一发现不仅提供了实用工具,还表明大语言模型具有自我纠正能力。