好消息,AI 开发者!
OpenAI 宣布对其旗舰级推理大语言模型 o3 进行大幅降价,将输入和输出 Token 的费用统统砍价 80% 。
(提醒:Token 是大语言模型用来表示单词、短语、数学和代码字符串以及其他内容的单个数字化字符串。它们是模型通过训练学习到的语义结构的表示,实际上构成了大语言模型的“母语”。大多数大语言模型供应商会通过应用程序接口 (API) 提供其模型,开发者可以基于这些 API 构建应用,或将外部应用接入大语言模型;同时,大多数供应商会按每百万 Token 收取费用。)
此次更新使该模型成为寻求先进推理能力的开发者更容易获取的选项,并使 OpenAI 在定价上与 Google DeepMind 的 Gemini 2.5 Pro、Anthropic 的 Claude Opus 4 以及 DeepSeek 的推理套件等竞争对手更加正面较量。
COME SEE
OpenAI 产品与 API 负责人 Olivier Godement
将于 6 月 24 日至 25 日在旧金山的 VB TRANSFORM 2025 展会现场亮相。
REGISTER NOW
现在票量仍然充足。
此次消息由 OpenAI 首席执行官 Sam Altman 自身在 X 平台上宣布,他在一篇帖子中强调,新定价旨在鼓励更广泛的实验,他写道:“我们将 o3 的价格降低了 80%!!很期待看到大家接下来会做出怎样的创举。相信你们对 o3-pro 的性能定价也会感到满意 :)”
使用 o3 的费用现为每百万输入 Token 2 美元,每百万输出 Token 8 美元,当用户输入的信息处于“缓存”状态,即已存储且与之前提供的信息完全一致时,每百万 Token 可享受额外 0.50 美元的折扣。
这意味着费用相比之前每百万输入 10 美元、输出 40 美元有了显著下降,正如 OpenAI 研究员 Noam Brown 在 X 平台上指出的那样。
开发者及早期用户 Ray Fernando 在帖子中庆祝这一降价消息,并写道 “LFG!”——即 “let’s fucking go!” 的缩写。
这一情绪反映了众多开发者在寻求为项目扩展而不会因模型接入费用过高而望而却步时所表现出的日益高涨的热情。
与其他竞争对手推理大语言模型的价格比较
此价格调整正值 AI 供应商在性能与经济实惠之间展开更激烈竞争之际。与其他领先的 AI 推理模型作对比,能看出这一策略的意义重大:
Gemini 2.5 Pro Preview ,由 Google DeepMind 开发,根据提示大小收取每百万输入 Token 1.25 至 2.50 美元,输出 Token 则收费 10 至 15 美元。虽然其与 Google Search 的集成提供了额外功能,但该服务自身也需要付费——每天前 1,500 个请求免费,之后每千个请求 35 美元。
Claude Opus 4 ,由 Anthropic 推出,定位为专为复杂任务优化的模型,是该组中最昂贵的,收费为每百万输入 Token 15 美元,输出 Token 75 美元。提示缓存读写服务分别收费 1.50 美元和 18.75 美元,尽管用户经过批量处理可享受 50% 折扣。
DeepSeek 的模型,特别是 DeepSeek-Reasoner 和 DeepSeek-Chat,以极具竞争力的低价横扫市场。输入 Token 费用根据是否缓存及时间段在 0.07 至 0.55 美元之间波动,而输出 Token 的费用则在 1.10 至 2.19 美元之间。非高峰时段的折扣率甚至可将有缓存的输入价格降至 0.035 美元。
模型 输入费用 缓存输入 输出费用 折扣说明 OpenAI o3 2.00 美元 (降自 10.00 美元) 0.50 美元 8.00 美元 (降自 40.00 美元) 灵活处理模式:每百万 Token 输入 5 美元、输出 20 美元 Gemini 2.5 Pro 1.25 – 2.50 美元 0.31 – 0.625 美元 10.00 – 15.00 美元 对于超过 200k Token 的提示适用较高费率 Claude Opus 4 15.00 美元 1.50 美元 (读) / 18.75 美元 (写) 75.00 美元 批量处理时可享 50% 折扣 DeepSeek-Chat 0.07 美元 (命中) / 0.27 美元 (未命中) — 1.10 美元 非高峰时段享 50% 折扣 DeepSeek-Reasoner 0.14 美元 (命中) / 0.55 美元 (未命中) — 2.19 美元 非高峰时段享 75% 折扣
此外,独立的第三方 AI 模型比较与研究机构 Artificial Analysis 对新的 o3 模型进行了涵盖各种任务的基准测试,其费用为完成所有测试需 390 美元,而 Gemini 2.5 Pro 为 971 美元,Claude 4 Sonnet 为 342 美元。
缩小开发者在成本与智能之间的差距
OpenAI 的此次定价调整不仅缩小了与 DeepSeek 等超低成本模型之间的差距,同时对像 Claude Opus 和 Gemini Pro 等高价产品形成下行压力。
与 Claude 或 Gemini 不同的是,OpenAI 的 o3 现在还提供了一种同步处理的灵活模式,按每百万 Token 输入 5 美元、输出 20 美元计费,使开发者能够根据任务类型更好地掌控计算成本和延迟问题。
o3 现已通过 OpenAI API 和 Playground 上线。即使账户余额仅几美元的用户,也可以探索该模型的全部功能,从而在原型设计和部署时减少财务障碍。
这对以往因高端模型接入成本过高而望而止步的初创公司、研究团队和个人开发者来说,无疑是一大利好消息。
通过大幅降低其最先进推理模型的成本,OpenAI 正在传递生成式 AI 领域的一个更广泛趋势:优质性能正迅速变得更加实惠,开发者如今有越来越多既具可行性又经济可扩展的选择。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。