AI智能体在企业应用中面临的最大障碍并不是模型质量问题,而是信任问题。这是VAST Data在本周于盐湖城举办的首届VAST Forward用户大会上提出的观点。
VAST Data虽然还不是家喻户晓的品牌,但已经悄然发展成为数据和AI基础设施领域增长最快的企业之一。该公司拥有超过700家客户,包括一些知名的托管服务商、前沿AI实验室、独角兽初创企业和新兴云服务商,以及成熟的大型企业。
"组织内AI广泛应用的主要阻碍之一是对模型的信任",VAST联合创始人Jeff Denworth在活动前的新闻发布会上表示,"对模型训练数据的信任、对模型处理不同数据或工具权限的信任,以及最终对使用这些模型的智能体之间相互通信和操作工具的信任。"
这个信任问题正是该公司最新发布产品的核心所在。
VAST成立于2016年,专注于存储和计算的分解架构。今年其合同年度经常性收入已超过5亿美元,总销售额同比增长近三倍。据Denworth介绍,公司历史软件预订量已超过40亿美元,目前已实现运营收入为正,手中现金约10亿美元。
正是这种增长让公司能够大力投资AI领域,并推出其所谓的"首个AI操作系统",该系统原生集成了存储、数据库和计算功能。
VAST的产品套件目前包括其核心数据管理和存储系统,2025年还推出了VAST AgentEngine,这是一个用于构建、部署和编排智能体工作流的低代码工具。与其他以数据为中心的公司一样,它也在其平台上推出了向量存储和搜索工具,这些工具构成了AI模型通过检索增强生成访问专有数据的基础。
该公司最新的更新建立在这些产品基础上,通过解决企业在将AI项目投入生产时越来越明显的特定需求来扩展功能。
PolicyEngine策略引擎
公司在大会上推出的第一个新功能是PolicyEngine。由于AI智能体和构建它们的大语言模型不是确定性的,因此必须有一个"信任但验证"的系统来促进它们在企业中的应用。
PolicyEngine位于智能体与其他智能体、MCP工具以及它们使用的内存和数据存储之间。VAST将其描述为一个决策框架,可以根据客户定义的策略阻止或允许操作,并调解系统中的所有输入和输出。
重要的是,PolicyEngine还可以内联应用AI驱动的数据转换——在数据到达智能体之前对其进行编辑和重新格式化——确保敏感信息不会在不应该出现的地方泄露。
通过系统的每个操作都会记录在防篡改的审计日志中,让客户(特别是受监管行业的客户)可以事后重放任何智能体操作。
公司表示,PolicyEngine将在2026年期间推出。
为AI系统构建防护栏越来越成为工程团队的基本要求,但这些防护栏通常是事后添加的。PolicyEngine背后的理念是将执行推入基础设施层,在每个智能体和工作流中实现一致的策略。
VAST的Denworth承认这是一个有主见的架构。
"如果你想获得全部好处,你需要将数据放在VAST集群中,并在其中运行计算",他说,"这并不是用来编排大量独立服务的。我们真正试图构建的是一个单一的操作系统。我们专注于此的原因是,我们认为应用这些控制点只有通过统一系统才能以真正可信的方式完成。"
TuningEngine调优引擎
VAST AI功能的另一个重大更新是推出TuningEngine。顾名思义,这是为了确保模型和智能体能够从用户反馈中学习。
但公司也将微调视为安全问题,而不仅仅是能力问题。要信任一个模型,你需要信任它的训练数据。如果你的平台不处理微调,VAST认为这就是一个缺口。
"我们的结论是,如果我们不处理微调,那将成为一个安全缺口,最终会让AI变得不那么可信",Denworth说。
TuningEngine从运行在VAST Agent引擎中的智能体捕获遥测数据,将其处理成工件表,并将这些数据输入其调优器。
VAST表示它使用LoRA(低秩适应)、监督微调和强化学习等流行方法。调优后的模型然后在系统内进行评估,并作为新迭代部署回智能体运行时。
市场上有其他微调系统,包括AWS和谷歌等主要云计算提供商的系统,但VAST认为这些不适合所有人,特别是可能需要完全在自己防火墙内部署的客户。
VAST表示TuningEngine需要大约一年时间才能完全部署,但已经在与早期客户合作。
与NVIDIA合作推出加速数据堆栈
虽然PolicyEngine和TuningEngine需要一段时间才能推出,但VAST还宣布了与NVIDIA的重要新合作,推出端到端加速数据堆栈。
该公司认为,加速计算尚未达到数据层面,但其服务现在可以直接在GPU加速服务器上运行。VAST相信这个统一平台将消除客户当前遇到的许多数据瓶颈。
值得注意的是,VAST并没有进入硬件业务。其OEM合作伙伴,如HPE、联想和Supermicro将处理这些。
在公司大会期间的单独新闻发布会上,VAST联合创始人Renen Hallak强调了这一点。"我们不做任何硬件或芯片,但我们与Nvidia和其他芯片供应商合作,使我们的软件层与底层硬件、网络硬件、SSD等配合得非常好。我们填补的是软件基础设施层,那个我称之为操作系统的云服务层,这是我们的部分",他解释说。
这里的重点产品是CNode-X,这是一个与NVIDIA合作设计(并由其认证)的新GPU加速服务器,将VAST的高性能存储服务器引入大型GPU集群。
VAST正在集成几个NVIDIA加速库:用于硬件加速向量搜索的cuVS、用于GPU加速SQL查询的Sirius(公司声称查询速度提高44%,成本降低80%)、用于在集群中原生运行RAG管道的NIM推理微服务,以及NVIDIA CMS——上下文内存扩展——来加速对共享键值缓存的访问并降低首Token时间。
NVIDIA创始人兼首席执行官Jensen Huang不出所料地表示赞同。"NVIDIA正在为AI重新发明计算的每个支柱。通过与VAST Data的合作,我们正在改变AI基础设施的存储",他在VAST公告的声明中说,"CNode-X在每一层都经过CUDA加速,为AI智能体提供持久内存,使它们能够在数天或数周,最终数年的时间里处理复杂问题而不会遗忘——为世界开启AI的下一个前沿。"
为了完善并突出其对信任的关注,VAST还与CrowdStrike合作,将该公司的威胁检测和响应能力直接嵌入其AI系统中。
VAST相信,所有这些新功能将使其更接近构建"随着与自然世界数据交互而自动进化"的系统,正如公司在公告中所说。
"通过今天的公告,VAST AI OS终于创建了一个封闭的运营计算循环,可以观察、推理、行动、评估和改进——所有这些都通过在一个统一系统中统一和保护所有活动来强化安全性和可解释性",公司表示——尽管由于这些工具需要一段时间才能推出,我们仍需等待并观察其在实践中的表现。毕竟,所有这些工具的发展速度都比企业采用它们的速度要快。
Q&A
Q1:VAST Data的PolicyEngine策略引擎有什么作用?
A:PolicyEngine是一个位于智能体与其他智能体、工具和数据存储之间的决策框架。它可以根据客户定义的策略阻止或允许操作,调解系统中的所有输入和输出,并能内联应用AI驱动的数据转换,确保敏感信息不会泄露。每个操作都会记录在防篡改的审计日志中。
Q2:TuningEngine调优引擎为什么对AI安全很重要?
A:VAST认为微调不仅是能力问题,更是安全问题。要信任一个模型,必须信任它的训练数据来源。TuningEngine捕获智能体的遥测数据,处理成工件表,使用LoRA、监督微调和强化学习等方法进行模型调优,确保模型训练过程的可信度。
Q3:VAST与NVIDIA合作推出的CNode-X有什么特别之处?
A:CNode-X是与NVIDIA合作设计并认证的GPU加速服务器,集成了cuVS向量搜索、Sirius SQL查询加速、NIM推理微服务和NVIDIA CMS等加速库。它将VAST的高性能存储服务器引入大型GPU集群,为AI智能体提供持久内存,消除数据瓶颈。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。