OpenAI 已开始向 ChatGPT Plus 会员用户推出其最新的 AI 模型 GPT-4.5。
OpenAI 在 X 平台上发布的一系列帖子中表示,此次推广将持续 "1-3 天",并预计访问频率限制会有所调整。GPT-4.5 上周首先向每月支付 200 美元的 ChatGPT Pro 计划订阅用户开放。
公司在一篇帖子中写道:"我们希望为所有能访问 GPT-4.5 的用户提供较大的访问频率限制,但随着我们对需求了解的加深,这些限制可能会发生变化。"
GPT-4.5 是 OpenAI 迄今为止最大的 AI 模型,其训练所需的计算能力和数据量超过了公司之前的所有版本。但这并不意味着它是 OpenAI 最优秀的模型。在多个 AI 基准测试中,GPT-4.5 的表现不如来自中国 AI 公司 DeepSeek、Anthropic 以及 OpenAI 自己开发的新型 AI "推理" 模型。
OpenAI 承认 GPT-4.5 的运营成本非常高昂——如此昂贵以致于公司正在评估是否要在长期继续通过其 API 提供 GPT-4.5 服务。为了覆盖成本,公司对输入模型的每百万个 token (约 75 万字) 收取 75 美元,对模型生成的每百万个 token 收取 150 美元,这分别是 OpenAI 主力模型 GPT-4o 输入成本的 30 倍和输出成本的 15 倍。
尽管如此,OpenAI 表示 GPT-4.5 更大的规模使其具备了 "更深入的世界知识" 和 "更高的情商"。根据 OpenAI 的说法,GPT-4.5 的幻觉(产生虚假信息)频率也低于大多数模型——这理论上意味着它不太可能编造内容。
GPT-4.5 还具有很强的说服力。OpenAI 的一项内部基准测试发现,该模型特别擅长说服其他 AI 给它现金。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。