数据基础设施巨头Vast Data公司今日宣布扩大与云数据中心运营商CoreWeave的合作,签署价值11.7亿美元的商业协议,将VAST AI OS打造为云端人工智能工作负载的主要数据基础。
CoreWeave自今年上市以来已成为华尔街宠儿,凭借AI行业蓬勃发展实现业务指数级增长。该公司运营庞大的云端数据中心网络,配备英伟达最先进的图形处理器和其他高端AI加速器。公司将这些计算能力租赁给需要为AI系统提供更强算力的企业客户,直接与亚马逊AWS和谷歌云等公有云巨头竞争。
Vast Data专注数据存储领域,致力于将自身定位为AI数据的主要平台,而AI数据正是大语言模型和生成式AI系统的重要燃料。通过VAST AI OS,公司利用其"解耦与全共享"架构,将存储介质从计算资源中分离,创建AI数据操作系统。该系统允许客户存储几乎无限量的数据,这些数据可以独立于客户计算资源进行访问,以更低延迟为AI系统提供数据支持。
VAST AI OS支持各种存储类型,包括文件、对象、块、表格和流数据,并提供无服务器功能和向量搜索等AI专用功能。该平台已成为CoreWeave数据中心基础设施的关键组件,为云公司客户提供海量数据集的实时访问,实现更经济、更低延迟的AI训练和推理。
CoreWeave联合创始人兼首席战略官Brian Venturo表示,VAST AI OS支撑着公司设计和交付云基础设施的多个方面。"这项合作使我们能够提供市场上性能最强、可扩展性最好、成本效益最高的AI基础设施。"
凭借VAST AI OS的可扩展系统架构,CoreWeave表示可以在其任何数据中心为客户快速部署该平台,为最苛刻的AI工作负载提供即时、可靠、高性能的数据基础。扩大的合作将使CoreWeave与Vast Data共同为联合客户提供更先进的数据服务,包括帮助优化数据管道的新功能。通过这些新服务,两家公司表示客户将能够比以往更快地行动和更高效地扩展。
NAND Research分析师Steve McDowell表示,在CoreWeave等云服务商规模部署的AI工作负载需要完全不同的存储方法。他告诉SiliconANGLE,在如此规模下,确保GPU不会因等待所需数据而频繁启停至关重要,传统存储系统根本无法胜任。
"这正是Vast Data等专业供应商的优势所在,"McDowell说道。"它将高性能可扩展并行文件系统的最佳功能与AI优化特性相结合,旨在防止AI工作流程因等待数据而延迟。"
McDowell指出,值得注意的是CoreWeave并未完全依赖Vast Data的数据基础设施。它还与Vast Data的主要竞争对手WekaIO合作,为客户提供两个平台的选择。"CoreWeave的多供应商策略表明,在大规模AI数据挑战面前,仍然没有单一解决方案。"
Vast Data创始人兼首席执行官Renen Hallak持不同观点,他表示扩大的合作意味着VAST AI OS将成为全球最雄心勃勃AI项目的基础。"我们与CoreWeave的深度整合源于在业务和技术层面并肩合作的长期承诺。通过协调我们的发展路线图,我们正在提供组织在市场其他地方找不到的AI平台。"
Q&A
Q1:VAST AI OS是什么系统?有什么特点?
A:VAST AI OS是Vast Data开发的AI数据操作系统,采用"解耦与全共享"架构,将存储介质从计算资源中分离。它允许客户存储几乎无限量的数据,支持文件、对象、块、表格和流数据等各种存储类型,并提供无服务器功能和向量搜索等AI专用功能。
Q2:CoreWeave为什么选择与Vast Data合作?
A:CoreWeave需要为客户提供高性能的AI基础设施,而VAST AI OS能够为海量数据集提供实时访问,实现更经济、更低延迟的AI训练和推理。该平台支撑着CoreWeave设计和交付云基础设施的多个方面,帮助提供市场上性能最强、可扩展性最好的AI基础设施。
Q3:AI工作负载对存储有什么特殊要求?
A:大规模AI工作负载需要确保GPU不会因等待数据而频繁启停,传统存储系统无法满足这种需求。需要专业的高性能可扩展并行文件系统,结合AI优化特性,防止AI工作流程因等待数据而产生延迟,这正是VAST AI OS等专业解决方案的优势所在。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。