英伟达宣布向云服务提供商CoreWeave追加投资20亿美元,双方将共同推进一项宏大计划:到2030年建设总功率达5GW的AI数据中心。
这笔资金将用于支持新建AI工厂以及在CoreWeave平台上部署多代英伟达基础设施。英伟达首席执行官兼创始人黄仁勋表示:"AI正在进入下一个前沿领域,推动着人类历史上最大规模的基础设施建设。我们正在携手满足对英伟达AI工厂的巨大需求。"
英伟达以每股87.20美元的价格购买了价值20亿美元的CoreWeave A类普通股,这是继9月份63亿美元投资之后的又一笔大手笔投资。
近几个月来,CoreWeave一直在积极扩张业务。9月份,该公司与Meta签署了142亿美元的协议,并扩大了与OpenAI的合作合同,据报道价值224亿美元。
最新的投资还将帮助测试和验证CoreWeave的AI原生软件和参考架构,包括SUNK和CoreWeave任务控制系统,并使这些产品能够纳入英伟达为云和企业客户提供的参考架构中。
CoreWeave联合创始人、董事长兼首席执行官迈克尔·因特拉托表示:"当软件、基础设施和运营协同设计时,AI才能成功。这种扩大的合作突显了我们在客户群中看到的强劲需求,以及AI系统转向大规模生产时更广泛的市场信号。"
9月份,CoreWeave参与了一项价值150亿美元的英国AI基础设施建设计划,该计划还包括Nscale、英伟达和OpenAI。该计划包括在全球部署30万块英伟达GPU。
然而,HyperFrame Research分析师兼首席执行官史蒂文·迪肯斯对CoreWeave向最终用户交付价值的能力仍存疑问。迪肯斯说:"循环经济在继续。英伟达拥有庞大的资产负债表和资金实力来做这些交易。但我想从CoreWeave那里看到的是,他们是否有持续的需求,特别是在推理方面,来维持这种规模的建设?"
迪肯斯将这种建设努力比作互联网时代的暗光纤建设,"那是在需求之前的建设。这是建设到需求之中。"
CoreWeave股价在早盘交易中上涨。
Q&A
Q1:英伟达为什么向CoreWeave投资20亿美元?
A:英伟达投资CoreWeave是为了共同建设5GW的AI数据中心,满足AI工厂的巨大市场需求。这笔资金将支持新建AI工厂以及在CoreWeave平台上部署多代英伟达基础设施,同时帮助测试和验证AI原生软件和参考架构。
Q2:CoreWeave最近还签署了哪些重要合作?
A:CoreWeave在近几个月积极扩张,9月份与Meta签署了142亿美元的协议,并扩大了与OpenAI价值224亿美元的合作合同。此外,该公司还参与了150亿美元的英国AI基础设施建设计划,包括全球部署30万块英伟达GPU。
Q3:这次AI基础设施大规模建设有什么风险?
A:分析师认为存在需求持续性问题,特别是在推理方面能否维持如此规模的建设。有专家将此次建设比作互联网时代的暗光纤建设,担心可能出现建设超前于实际需求的情况,需要观察CoreWeave是否有足够的持续需求来支撑投资。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。