OpenAI发布了两款专为速度优化的新AI模型——GPT-5.4 mini和nano,这是GPT-5.4的最小和最快版本。这些模型于周二正式发布,主要面向ChatGPT用户和使用OpenAI API的开发者。
这些新模型是OpenAI在AI软件工程市场与竞争对手Anthropic展开竞争的重要举措。OpenAI最新的Codex编程软件模型直接挑战了Anthropic的Claude Code,后者在2025年底因其从零创建应用程序的能力而广受关注。
据OpenAI介绍,GPT-5.4 mini在编程、推理和工具使用等任务上的速度比其前身GPT-5 mini快两倍以上。在某些基准测试中,它接近标准GPT-5.4模型的性能水平。
OpenAI建议将GPT-5.4 mini用于代码编辑和调试等任务。它可以作为Codex中的子智能体使用,由GPT-5.4等更大的模型将特定任务委托给这个更快、更便宜的模型。
GPT-5.4 nano体积更小,OpenAI建议将其用于数据分类和提取等基础工作。
GPT-5.4 mini将通过API以及Codex和ChatGPT向开发者提供。ChatGPT免费版和Go版用户可以通过"Thinking"功能访问该模型。其他用户在达到GPT-5.4 Thinking的使用限制时,会自动使用该模型作为备用选项。GPT-5.4 nano仅通过API提供。
Q&A
Q1:GPT-5.4 mini相比之前的模型有什么优势?
A:GPT-5.4 mini在编程、推理和工具使用等任务上的速度比前身GPT-5 mini快两倍以上,在某些基准测试中性能接近标准GPT-5.4模型,主要适用于代码编辑和调试等任务。
Q2:GPT-5.4 nano主要用来做什么?
A:GPT-5.4 nano体积更小,主要用于数据分类和提取等基础性工作,目前仅通过API向开发者提供。
Q3:普通用户如何使用GPT-5.4 mini?
A:ChatGPT免费版和Go版用户可以通过"Thinking"功能访问GPT-5.4 mini,其他用户在达到GPT-5.4 Thinking使用限制时会自动使用该模型作为备用选项。
好文章,需要你的鼓励
前OpenAI首席技术官Mira Murati创办的AI初创公司Thinking Machines Lab宣布推出"交互模型"技术。不同于现有AI的轮流对话方式,该模型采用"全双工"技术,能在接收输入的同时生成响应,实现类似真实电话通话的自然交互。其模型TML-Interaction-Small响应速度达0.40秒,优于OpenAI和谷歌同类产品。目前仍处于研究预览阶段,计划数月内开放有限测试,年内正式发布。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
澳大利亚各州及联邦能源部长在近期会议上达成共识,要求数据中心通过投资新建可再生能源和储能设施,完全抵消其电力需求。除昆士兰州外,所有州均支持该提议。联邦能源部长克里斯·鲍文表示,数据中心是新增能源需求的最大驱动力之一,应成为电网的助力而非负担。澳大利亚能源市场委员会将于7月前提交具体实施建议。数据显示,到2030年数据中心用电量预计将增至现在的三倍。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。