OpenAI 今天通过其应用程序编程接口向开发者推出了三款全新语言模型。
该系列的旗舰算法 GPT-4.1 被描述为在编程方面比其前代产品“显著更优”。另外两款模型 GPT-4.1 mini 和 GPT-4.1 nano 则在一定程度上牺牲了部分输出质量,以换取更低的定价。这三款模型均可处理最多 1 million Token 的提示,使它们能够对大型上传内容(例如 GitHub 仓库)进行分析。
在开发者请求语言模型协助完成编码任务时,他们通常不会只发送一个提示,而是会发送多个提示。此外,提示内容往往引用先前的输入信息。OpenAI 表示,GPT-4 较其前作在“从对话中的过往消息中提取信息”这一能力上提升了 10.5% ,这使其在高级编程任务中更为实用。
与编程相关的提示通常包括一个代码文件及对其某些部分进行修改的指令。对于这类提示,OpenAI 早期的模型往往不仅输出要求变更的部分,还会返回原始代码文件中未做修改的部分。由于公司是按模型输出量向客户收费的,这就增加了成本。
据 OpenAI 介绍,其工程师已将 GPT-4.1 配置为仅输出发生改变的代码行,而非整个文件。为了进一步降低成本,用户还可对常用提示的答案进行缓存。作为此次产品更新的一部分,OpenAI 将缓存折扣从 50% 提升至 75%。
此外,OpenAI 表示 GPT-4.1 在其他方面也为开发者带来了一系列改进。该模型在生成用户界面方面表现更加出色,并且不易产生冗余代码,从而减少了软件团队在筛选模型输出时所需投入的时间。
今天推出的第二款新模型 GPT-4.1 mini 是一款在硬件效率上更优、但功能略逊一筹的算法。尽管如此,其性能与 GPT-4.1 的前身仍具竞争力。正如 OpenAI 工作人员在博客文章中描述的那样:“它在智力评估中达到了或超过 GPT-4o 的表现,同时将延迟减少了近一半,并且将成本降低了 83%。”
该公司语言模型阵容中的第三款产品是 GPT-4.1 nano。它专为相对简单的任务设计,例如根据主题对文档进行分类或支持编程工具中的代码自动完成功能。除了成本更低之外,它还承诺相比 OpenAI 推出的其他两款新模型具有显著更低的延迟。
OpenAI 工作人员写道:“我们改进了推理架构以缩短生成首个 Token 的时间,并且借助提示缓存,您可以在降低延迟的同时节省成本。在初步测试中,GPT-4.1 在包含 128000 Token 上下文条件下,其 p95 生成首个 Token 延迟约为 15 秒,而在包含 1000000 Token 上下文时延迟则可达半分钟左右。”
OpenAI 不计划将 GPT-4.1 应用于 ChatGPT,相反,公司选择优化早期用来支撑聊天机器人服务的 GPT-4o 模型在编码和指令跟随能力方面的表现。
好文章,需要你的鼓励
微软在Ignite 2025大会上预览了Windows的重要更新,显示出操作系统向支持AI智能体的根本性转变。新增功能包括原生支持模型上下文协议(MCP)、智能体连接器注册表、明确的权限管控模型,以及独立的智能体工作空间。这些更新建立了OS级别的身份验证、授权和审计机制,让智能体能够安全地执行文件操作和系统设置等任务,同时保持可控性和可追溯性。
华为诺亚实验室等机构联合提出了一种创新的AI训练方法,通过双层优化框架让AI从数据中自动学习评价标准。该方法结合了传统最大似然估计和强化学习的优势,在表格分类和模型驱动强化学习任务中展现出更好的收敛性和泛化能力,为解决强化学习中缺乏明确奖励信号的问题提供了新思路。
苹果即将发布的macOS Tahoe 26.2系统将支持通过雷雳5连接多台Mac设备,构建低延迟AI超算集群。该功能支持Mac Studio、M4 Pro Mac mini和MacBook Pro等设备。四台Mac Studio可高效运行万亿参数的Kimi-K2-Thinking模型,功耗不到500瓦,比传统GPU集群低10倍。此外,MLX项目将获得M5芯片神经加速器的完整访问权限。
中科院自动化所团队发布AVoCaDO系统,这是首个能精准捕捉视听事件时间同步关系的AI视频解说生成器。通过双阶段训练和创新奖励机制,AVoCaDO不仅能识别视频内容,更能准确把握各元素的时间关系,在多个基准测试中显著超越现有开源模型,甚至在某些指标上超过商业模型,为智能视频理解开辟新方向。