OpenAI 首席执行官 Sam Altman 在 X 平台上发文表示:"我们本想同时向 Plus 和 Pro 用户推出,但由于公司发展迅速,我们的 GPU 资源已经告罄。这并非我们期望的运营方式,但很难完全预测导致 GPU 短缺的增长高峰。"他还将这个模型描述为"巨大"且"昂贵"。
尽管该模型是在之前的 GPT-4 基础上构建的,据 Altman 称,这是"第一个感觉像在与一个深思熟虑的人对话的模型",但他表示它"不会在基准测试中大放异彩"。
OpenAI 研究主管 Mia Glaese 在公司的直播发布会上表示:"我们仍在自行探索这个模型,特别是因为它不是一个推理模型,我们正在探索通过无监督学习出现的能力。我们非常高兴今天能够向世界推出这个模型,这样我们就可以一起探索它。"
根据 OpenAI 进行的准确性测试,GPT-4.5 的表现超过了之前的模型,明显减少了错误或缺乏依据的信息输出。据报道,该模型在理解细微差别,如微妙的暗示或隐含期望方面也有所提升。
据 Altman 透露,这个代号为 Orion 的模型将是公司最后一个非链式思维模型。未来的模型,如备受期待的 GPT-5(Altman 承诺将在未来几个月内发布)将是更先进的依赖推理能力的大语言模型。依赖推理能力的模型有望通过在产生响应前"思考"来更好地处理复杂问题。
Glaese 表示:"我们相信推理将成为我们未来模型的核心能力,但我们也认为今天讨论的两种范式,即无监督学习和推理是相辅相成的;像 GPT-4.5 这样具有更多世界知识且本质上更智能的模型将为未来的推理提供更强大的基础。"
随着包括中国的 DeepSeek 在内的竞争对手备受瞩目地崭露头角,ChatGPT 面临着持续提升性能的压力。
尽管如此,OpenAI 最近表示,尽管面临竞争,其用户增长仍然保持稳定。OpenAI 首席运营官 Brad Lightcap 上周告诉 CNBC,自去年 12 月以来,ChatGPT 的周活跃用户增长了 33%。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。