在生成式AI处理领域,合作伙伴之间存在大量的循环投资模式。大型云服务商拥有基础设施和资金,需要AI模型;而AI模型开发商拥有大规模运行的智能模型,但缺乏基础设施和资金。因此,云服务商向模型开发商提供现金并获得股份,同时获得模型访问权限,而这些现金又会在未来几年以容量租赁的形式回流。
这正是微软在2022年和2023年向OpenAI投资130亿美元,亚马逊向Anthropic投资40亿美元让其将Claude AI模型移植到AWS Trainium XPU并支付训练容量费用的原因。谷歌虽然是Anthropic的早期投资者(2022年底投资3亿美元),但公司又追加了30亿美元投资获得10%股份,Anthropic将使用这些资金在Google Cloud的GPU和TPU上训练模型。
有趣的是,谷歌的Gemini模型完全自给自足,仅在TPU上训练,并在应用程序和对外API中仅使用TPU进行推理。
据传,甲骨文刚刚签署了超过3000亿美元的协议,为OpenAI价值5000亿美元的大规模Stargate项目提供设备,这使甲骨文的估值在上周飙升。
CoreWeave是一家从加密货币挖矿转型的新云服务商,今年3月从OpenAI获得了159亿美元的未来GPU租赁订单,并正疯狂投资以实现这些容量上线。去年CoreWeave最大的客户是微软,我们认为大部分容量实际上是从Azure云卸载的OpenAI工作负载,因为Azure的GPU容量不足。
英伟达与CoreWeave的协议是这种模式的新变化。根据今天向美国证券交易委员会提交的8-K文件,该协议对CoreWeave在2032年到期前具有重大积极影响。
CoreWeave和英伟达在2023年4月签署了主服务协议,当时公司完成了2.21亿美元的B轮融资。随后在5月又获得2亿美元追加融资,12月完成6.42亿美元二次销售,2024年5月完成11亿美元C轮融资,10月又完成6.5亿美元二次销售。英伟达在此期间投入资金,据说持有CoreWeave 7%的股份。英伟达还以每股40美元的价格订购了2.5亿美元的股份,为CoreWeave的IPO提供支持。
CoreWeave目前市值接近588亿美元,这使英伟达的股份价值约41亿美元。英伟达在两年多时间里获得了18.6倍的投资回报。
更新后的主服务协议规定,到2032年,如果CoreWeave找不到客户,英伟达将保证63亿美元的GPU计算容量支出。这平均每年9亿美元,如果以GB200 NVL72实例租赁,按每个"Blackwell"GPU每小时10.50美元计算,相当于租赁9,387个GPU一年。
英伟达是全球最大的模型构建者和调优者之一,也在使用AI帮助芯片设计。租赁9,400个GPU一年可能会影响其预算,但考虑到英伟达从向所有人销售GPU集群获得的利润,这不会造成财务压力。这意味着英伟达可以以固定价格使用CoreWeave的闲置容量,而无需在其总部或其他设施增加更多硬件。
而且,英伟达可能需要在CoreWeave承担的全部容量中,超过一半已经被CoreWeave股票的增值所覆盖。实际上,我们认为英伟达不需要支付很多容量费用,除非生成式AI热潮完全崩溃。
Q&A
Q1:英伟达与CoreWeave签署了什么样的协议?
A:英伟达与CoreWeave签署了一项到2032年到期的主服务协议,英伟达将保证63亿美元的GPU计算容量支出,如果CoreWeave找不到客户,英伟达将承担这些容量。这平均每年约9亿美元,相当于租赁约9,400个GPU一年的容量。
Q2:为什么英伟达要为CoreWeave提供这种担保?
A:英伟达持有CoreWeave 7%的股份,价值约41亿美元,已获得18.6倍投资回报。英伟达将CoreWeave视为对抗AWS、微软和谷歌的平衡力量。通过这种担保,英伟达可以使用CoreWeave的闲置容量而无需自建更多基础设施。
Q3:CoreWeave是什么公司?主要业务是什么?
A:CoreWeave是一家从加密货币挖矿转型的新兴云服务商,目前市值接近588亿美元。公司今年3月从OpenAI获得了159亿美元的未来GPU租赁订单,去年最大客户是微软,主要承接从Azure云卸载的OpenAI工作负载。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。