那些因为 Vibe 编程而频繁触及 ChatGPT 使用上限的用户,终于迎来了新选择。此前,OpenAI 每月 20 美元的 Plus 计划使用额度有限,而下一档则直接跳升至每月 200 美元的 Pro 计划。现在,OpenAI 于本周四宣布推出一个新的中间档套餐——月费 100 美元,专为重度使用 Codex 编程应用的用户设计,提供更高的使用限额。
AI 编程工具在过去数月内迅速走红。Anthropic 旗下的 Claude Code 在 2025 年底引发广泛关注,OpenAI 的 Codex 今年以来使用量也持续攀升。OpenAI 表示,Codex 的使用量月环比增幅已超过 70%。
背后原因在于:让 AI 规划并编写应用程序或工具所消耗的 Token 数量,远远高于普通对话。Token 是 AI 生成内容的基本计量单位,编程任务的消耗量可能是日常聊天的数倍。
OpenAI 在公告中表示,推出这一价格更亲民的新套餐,是为了在 Plus 计划与现有 Pro 计划之间建立一个过渡层,让希望持续编程创作的用户无需支付 Plus 计划十倍的费用。
新套餐在 Codex 使用限额方面是 Plus 计划的五倍,同时还涵盖现有 200 美元每月 Pro 计划的全部功能,包括访问 ChatGPT Pro 模型,以及不限次数使用即时模型与思考模型。
相比之下,原有的每月 200 美元 Pro 计划提供的使用限额是 Plus 计划的 20 倍。
Anthropic 也提供了类似的分级定价策略。其 Claude Max 5x 套餐月费 100 美元,容量是 20 美元基础套餐的五倍;Claude Max 20x 套餐月费 200 美元,容量则提升至基础套餐的 20 倍。
(信息披露:Ziff Davis 系 CNET 的母公司,已于去年对 OpenAI 提起诉讼,指控其在训练和运营 AI 系统过程中侵犯了 Ziff Davis 的版权。)
Q&A
Q1:OpenAI 新推出的 100 美元订阅计划包含哪些功能?
A:OpenAI 新推出的每月 100 美元套餐提供的 Codex 使用限额是 Plus 计划的五倍,同时涵盖现有 200 美元 Pro 计划的所有功能,包括访问 ChatGPT Pro 模型,以及不限次数使用即时模型与思考模型。
Q2:为什么 AI 编程任务会比普通对话消耗更多 Token?
A:因为让 AI 规划和编写完整的应用程序或工具,需要处理更复杂的逻辑、生成更长的代码内容,所消耗的 Token 数量远高于日常对话。Token 是 AI 生成内容的基本计量单位,编程任务的高消耗正是用户频繁触及使用上限的主要原因。
Q3:Anthropic 的 Claude 订阅计划与 OpenAI 新套餐定价相比如何?
A:两家公司的定价策略非常相似。Anthropic 的 Claude Max 5x 套餐月费同样为 100 美元,提供基础套餐五倍的使用容量;Claude Max 20x 套餐月费 200 美元,容量为基础套餐的 20 倍。与 OpenAI 的分级定价结构基本一致。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。