OpenAI已完成1220亿美元融资,估值达到8520亿美元,这是该公司迄今为止规模最大的融资轮,公司预计今年将进入公开市场。
此轮融资将为OpenAI增加资金储备,以应对在AI芯片、数据中心建设和招聘顶尖人才方面的巨额支出。
软银与Andreessen Horowitz共同领投此轮融资,参投方包括D.E. Shaw Ventures、MGX、TPG和T. Rowe Price Associates,亚马逊、英伟达和微软也参与其中。
约30亿美元来自通过银行渠道参与的个人投资者。OpenAI还将被纳入ARK Invest管理的多个ETF中,这将使更多人能够接触到这家私人公司的股票,在其即将进行的IPO之前扩大股东基础。
OpenAI还表示,已将循环信贷额度扩大至约47亿美元,得到多家顶级全球银行的支持。公司称该额度尚未动用,这表明其正在加强财务灵活性以应对计算和基础设施方面的支出增长,而非应对短期流动性需求。
该公司关于此轮融资的新闻稿更像是S-1文件草稿,而非典型的博客文章,其中大量使用飞轮隐喻,深入探讨每计算单元收入,并提供了机构投资者青睐的TAM论证语言。
OpenAI在更新中披露了收入和用户数据,声称每月产生20亿美元收入,并对竞争对手发起挑战:"在这个阶段,我们的收入增长速度比定义了互联网和移动时代的公司快四倍,包括Alphabet和Meta。"
公司还表示,消费者AI领域每周活跃用户超过9亿,订阅用户超过5000万,搜索使用量在过去一年中几乎增长了两倍。OpenAI称其广告试点项目在不到六周内就带来了超过1亿美元的年度经常性收入,为这家在建立用户基础时没有使用广告的公司开辟了重要的潜在收入来源。
这家AI巨头声称其在商业端的发展势头同样强劲,商业收入现在占总收入的40%(较去年的约30%有所上升),并"有望在2026年底与消费端收入持平"。公司表示,其在智能体工作流程方面的增长由最新模型GPT-5.4驱动。
最后,OpenAI还称自己为"AI超级应用",明确表示希望拥有人们使用AI的主要界面。
所有这些都传达了一个明确信息:OpenAI正在实时构建其公开市场叙事,此轮融资既是为了获得资本,也是为了锚定IPO预期。
Q&A
Q1:OpenAI这轮融资规模有多大?
A:OpenAI完成了1220亿美元的融资,估值达到8520亿美元,这是该公司迄今为止规模最大的融资轮。其中约30亿美元来自通过银行渠道参与的个人投资者。
Q2:OpenAI现在的业务表现如何?
A:OpenAI声称每月产生20亿美元收入,拥有超过9亿周活跃用户和5000万订阅用户。商业收入占总收入的40%,预计2026年底与消费端收入持平。广告试点项目在六周内带来超过1亿美元年收入。
Q3:谁参与了OpenAI的这轮投资?
A:软银与Andreessen Horowitz共同领投,参投方包括D.E. Shaw Ventures、MGX、TPG、T. Rowe Price Associates、亚马逊、英伟达和微软。OpenAI还将被纳入ARK Invest管理的多个ETF中。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。