分解式共享一切 ( DASE ) 平行存储与 AI 软件栈供应商 VAST Data 宣布推出一款 AI 操作系统。
VAST 设想了一种全新的计算范式,其中“数万亿个智能代理将在边缘部署、AI 工厂和云数据中心交织而成的全球网格中进行推理、通信和行动,每个网格由数百万块 GPU 构成。” 它将提供统一的计算与数据云,并从单一快速且经济高效的存储层中为新型 AI 工作负载提供近乎无限量的数据。
VAST 联合创始人兼 CEO Renen Hallak 表示: “这不仅仅是一个产品发布——这是计算演进史上的一个里程碑。我们在过去十年中重新构想了数据与智能如何融合。今天,我们自豪地推出面向一个不再以应用为中心,而以智能代理为核心的世界的 AI 操作系统。”
该 AI 操作系统基于 VAST 现有的 AI 数据平台构建,提供用于分布式智能代理计算和 AI 代理的服务。其组成部分包括: o 内核,用于在私有云和公有云上运行平台服务 o 运行时,用于部署 AI 代理 —— AgentEngine o 事件处理基础设施,用于实时事件处理 —— Data Engine o 消息传递基础设施 o 分布式文件与数据库存储系统,可用于实时数据捕捉和分析 —— DataStore、DataBase 和 Data Space
VAST 正在推出一项全新的 AgentEngine 功能。其 InsightEngine 利用 AI 预处理数据以供 AI 使用。AgentEngine 是一款具备自动扩展能力的 AI 代理部署运行时,为用户提供一个低代码环境来构建智能工作流、选择推理模型、定义代理工具并实现推理的运营化。
该平台配备了 AI 代理工具服务器,支持代理调用数据、元数据、功能、网络搜索或其他代理,并将它们作为 MCP 兼容工具使用。代理可以扮演具有不同用途和安全凭证的多个角色。代理工具服务器提供对各类工具的安全、实时访问,其调度器和容错队列机制确保代理在机器或服务故障时仍具备韧性。
AgentEngine 具备智能代理工作流的可观察性,采用并行、分布式追踪,使开发者能够统一且简洁地查看规模庞大且复杂的智能代理流水线。
VAST 表示,它将以每月一个的速度发布一系列开源代理。其中,一些个人助理代理将针对特定行业应用进行定制,而其他代理则设计为通用用途。示例包括: o 一个推理聊天机器人,基于整个组织的 VAST 数据驱动 o 一个数据工程代理,用于自动管理数据 o 一个提示工程师代理,帮助优化 AI 工作流输入 o 一个元代理,用于自动部署、评估和改进代理 o 一个合规性代理,用于执行数据和活动级合规性要求 o 一个编辑代理,用于创建丰富的媒体内容 o 一个生命科学研究代理,协助生物信息学发现
VAST Data 将在全年开展一系列 “VAST Forward” 全球研讨会,包括线下和线上形式。这些活动将涵盖 AI 操作系统组件的培训以及如何在该平台上进行开发的讲座。
评论 VAST 的 AI 操作系统并非像 Windows 或 Linux 那样的独立操作系统,它们是关注于硬件和基本服务的低级、处理器绑定系统。而该 AI 操作系统代表了 VAST 对 “思维机器” 愿景的最终呈现,是一个完整的 AI 栈实体。
Nvidia 拥有其 AI Enterprise 软件套件,支持生产级 AI 应用程序的开发与部署,其中包括生成式 AI 和智能代理 AI 系统。该套件包括类似 NIM 的微服务,并支持构建和部署 AI 代理以及管理 AI 工作流的工具,但它并不是一个完整的操作系统。
Dell 和 HPE 都拥有类似 AI 工厂的方案,这些方案可视为有潜力发展成为 AI 操作系统的方式。
附注 VAST 声称,它创下了所有数据公司历史上累计预订达到 20 亿美元最快的记录。在 2025 年第一季度,其同比增长近 5 倍,其 DASE 集群全球支持超过 100 万个 GPU。VAST 表示,其商业模式实现了正向现金流。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。