在生成式AI处理领域,合作伙伴之间存在大量的循环投资模式。大型云服务商拥有基础设施和资金,需要AI模型;而AI模型开发商拥有大规模运行的智能模型,但缺乏基础设施和资金。因此,云服务商向模型开发商提供现金并获得股份,同时获得模型访问权限,而这些现金又会在未来几年以容量租赁的形式回流。
这正是微软在2022年和2023年向OpenAI投资130亿美元,亚马逊向Anthropic投资40亿美元让其将Claude AI模型移植到AWS Trainium XPU并支付训练容量费用的原因。谷歌虽然是Anthropic的早期投资者(2022年底投资3亿美元),但公司又追加了30亿美元投资获得10%股份,Anthropic将使用这些资金在Google Cloud的GPU和TPU上训练模型。
有趣的是,谷歌的Gemini模型完全自给自足,仅在TPU上训练,并在应用程序和对外API中仅使用TPU进行推理。
据传,甲骨文刚刚签署了超过3000亿美元的协议,为OpenAI价值5000亿美元的大规模Stargate项目提供设备,这使甲骨文的估值在上周飙升。
CoreWeave是一家从加密货币挖矿转型的新云服务商,今年3月从OpenAI获得了159亿美元的未来GPU租赁订单,并正疯狂投资以实现这些容量上线。去年CoreWeave最大的客户是微软,我们认为大部分容量实际上是从Azure云卸载的OpenAI工作负载,因为Azure的GPU容量不足。
英伟达与CoreWeave的协议是这种模式的新变化。根据今天向美国证券交易委员会提交的8-K文件,该协议对CoreWeave在2032年到期前具有重大积极影响。
CoreWeave和英伟达在2023年4月签署了主服务协议,当时公司完成了2.21亿美元的B轮融资。随后在5月又获得2亿美元追加融资,12月完成6.42亿美元二次销售,2024年5月完成11亿美元C轮融资,10月又完成6.5亿美元二次销售。英伟达在此期间投入资金,据说持有CoreWeave 7%的股份。英伟达还以每股40美元的价格订购了2.5亿美元的股份,为CoreWeave的IPO提供支持。
CoreWeave目前市值接近588亿美元,这使英伟达的股份价值约41亿美元。英伟达在两年多时间里获得了18.6倍的投资回报。
更新后的主服务协议规定,到2032年,如果CoreWeave找不到客户,英伟达将保证63亿美元的GPU计算容量支出。这平均每年9亿美元,如果以GB200 NVL72实例租赁,按每个"Blackwell"GPU每小时10.50美元计算,相当于租赁9,387个GPU一年。
英伟达是全球最大的模型构建者和调优者之一,也在使用AI帮助芯片设计。租赁9,400个GPU一年可能会影响其预算,但考虑到英伟达从向所有人销售GPU集群获得的利润,这不会造成财务压力。这意味着英伟达可以以固定价格使用CoreWeave的闲置容量,而无需在其总部或其他设施增加更多硬件。
而且,英伟达可能需要在CoreWeave承担的全部容量中,超过一半已经被CoreWeave股票的增值所覆盖。实际上,我们认为英伟达不需要支付很多容量费用,除非生成式AI热潮完全崩溃。
Q&A
Q1:英伟达与CoreWeave签署了什么样的协议?
A:英伟达与CoreWeave签署了一项到2032年到期的主服务协议,英伟达将保证63亿美元的GPU计算容量支出,如果CoreWeave找不到客户,英伟达将承担这些容量。这平均每年约9亿美元,相当于租赁约9,400个GPU一年的容量。
Q2:为什么英伟达要为CoreWeave提供这种担保?
A:英伟达持有CoreWeave 7%的股份,价值约41亿美元,已获得18.6倍投资回报。英伟达将CoreWeave视为对抗AWS、微软和谷歌的平衡力量。通过这种担保,英伟达可以使用CoreWeave的闲置容量而无需自建更多基础设施。
Q3:CoreWeave是什么公司?主要业务是什么?
A:CoreWeave是一家从加密货币挖矿转型的新兴云服务商,目前市值接近588亿美元。公司今年3月从OpenAI获得了159亿美元的未来GPU租赁订单,去年最大客户是微软,主要承接从Azure云卸载的OpenAI工作负载。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
苹果在iOS 26公开发布两周后推出首个修复更新iOS 26.0.1,建议所有用户安装。由于重大版本发布通常伴随漏洞,许多用户此前选择安装iOS 18.7。尽管iOS 26经过数月测试,但更大用户基数能发现更多问题。新版本与iPhone 17等新机型同期发布,测试范围此前受限。预计苹果将继续发布后续修复版本。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。