OpenAI Group PBC今日宣布完成1220亿美元融资,估值达到8520亿美元,这是硅谷历史上规模最大的融资轮次,再次证明了其在人工智能投资领域的领导地位。
本轮融资正值公司准备首次公开募股之际,将使OpenAI能够继续在AI芯片和数据中心基础设施方面投入巨额资金,并招聘行业顶尖人才。
软银集团与Andreessen Horowitz共同领投了本轮融资,其他参投方包括D.E. Shaw Ventures、MGX、TPG和T. Rowe Price Associates。此前的投资者如亚马逊、英伟达和微软也参与了此轮融资。
据公司透露,近30亿美元来自通过银行渠道的个人投资者。此外,OpenAI现在将被纳入ARK Investment Management LLC运营的多个交易所交易基金中,这将使更多私人投资者在IPO前获得其股票投资机会。
OpenAI还表示,通过将循环信贷额度扩大至约47亿美元,公司将获得多家全球银行的进一步资金支持。该信贷额度尚未动用,可能会在公司加大基础设施投入时增强财务灵活性。
在完成本轮融资后,首席执行官萨姆·阿尔特曼面临着比以往更大的压力,需要证明公司巨额估值的合理性。从今日发布的公告措辞来看,他似乎已经在努力做这件事。新闻稿更新了公司最新财务数据,显示其月销售额现已超过20亿美元。公司表示:"在现阶段,我们的收入增长速度是定义互联网和移动时代的公司(包括Alphabet和Meta)的四倍。"
OpenAI还更新了用户数据。公司称其面向消费者的应用程序现在拥有超过9亿周活跃用户。ChatGPT搜索功能的使用量在过去一年中增长了三倍,正在向谷歌的领域进军。
此外,其订户基数已超过5000万,新推出的广告业务仅在六周后就产生了超过1亿美元的年度经常性收入。这特别令人鼓舞,因为广告使公司能够从庞大的非付费用户基础中产生收入。这与谷歌、亚马逊、Meta平台等科技巨头每季度产生数十亿美元收入的模式相同。
公司声称在企业业务方面看到了强劲势头。企业销售现在占其总收入的40%,比一年前的30%有所增长。公司补充说,预计到2026年底将"与消费者业务达到平衡"。
这是一个重要细节,因为OpenAI已经大力宣传其转向企业客户的战略转变,类似于竞争对手Anthropic PBC正在做的事情。公司最近宣布计划创建一种专注于开发者和商业用户的新型"超级应用",将整合ChatGPT和其智能体产品。它还决定关闭备受瞩目但面向消费者的Sora视频生成应用,以便将投资重点放在帮助工作者提高生产力的工具上,特别是编程智能体。
Q&A
Q1:OpenAI这次融资规模有多大?创下了什么纪录?
A:OpenAI完成了1220亿美元的融资,估值达到8520亿美元,这是硅谷历史上规模最大的融资轮次。
Q2:OpenAI现在的用户规模和收入情况如何?
A:OpenAI现在拥有超过9亿周活跃用户,月销售额超过20亿美元,订户数超过5000万,新推出的广告业务在六周内就产生了超过1亿美元的年度经常性收入。
Q3:OpenAI的业务重心发生了什么变化?
A:OpenAI正在转向企业客户,企业销售现在占总收入的40%,公司计划创建专注于开发者和商业用户的"超级应用",并关闭了面向消费者的Sora视频生成应用。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。