OpenAI 计划在未来数月内发布其新一代旗舰人工智能系统 GPT-5。
首席执行官 Sam Altman 今天在 X 平台上发布的一系列帖子中透露了这一发布时间。他同时还分享了有关 ChatGPT 开发团队的产品路线图的其他细节。
在 GPT-5 发布之前,OpenAI 将在未来几周内推出功能相对较弱的大语言模型 GPT-4.5。后者是公司通用型 GPT-4o 模型的继任者。与 OpenAI 专注于推理优化的大语言模型相比,GPT-4o 在代码生成等任务上的表现较弱,但它的推理成本明显更低。
Altman 详细说明,GPT-4.5 将是 OpenAI 最后一个不具备思维链 (Chain of Thought, CoT) 机制的大语言模型。CoT 是一种将复杂任务分解为一系列简单步骤的机器学习技术。研究表明,这种方法能显著提高大语言模型的输出质量,特别是在处理复杂推理任务时。
去年,据 The Information 报道,与前代 GPT-4 相比,GPT-4.5 在输出质量方面的提升将"小得多"。此外,据报道,这个即将推出的模型在编程任务上"并不能稳定超越" GPT-4。这可能是因为 OpenAI 在这方面的努力主要集中在其推理优化型大语言模型上,这些模型专门针对编程和数学任务进行了优化。
OpenAI 最新的推理优化大语言模型 o3 于去年 12 月发布。它在 Frontier Math(一个包含特别困难数学问题的基准测试)中创下了 25.2% 的记录分数,远超此前不到 2% 的最高分。
在今天的 X 平台帖子中,Altman 透露 OpenAI 已放弃将 o3 作为独立产品的计划。相反,公司计划将该模型整合到预计在数月内推出的 GPT-5 中。
"我们的首要目标是通过创建能够使用所有工具、知道何时需要长时间思考以及普遍适用于广泛任务的系统,来统一 o 系列模型和 GPT 系列模型,"Altman 写道。
OpenAI 计划在 ChatGPT 的免费版和付费版中都提供 GPT-5。付费用户将可以使用具有更高级推理能力的版本。
这些高级功能可能由 OpenAI 的测试时计算技术提供支持。该技术通过投入更多时间和计算资源来处理提示,从而提高模型的输出质量。OpenAI 已在 o3 中实现了这项技术。
上个月,该公司推出了由 o3 驱动的 Deep Research 工具,帮助用户搜索网络信息。它可以基于数百个公开来源的数据生成详细报告。Altman 今天透露,ChatGPT 免费版用户每月可以使用两次 Deep Research 查询,而 ChatGPT Plus 订阅用户则可以使用多达 10 次查询。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。