OpenAI 今天通过其应用程序编程接口向开发者推出了三款全新语言模型。
该系列的旗舰算法 GPT-4.1 被描述为在编程方面比其前代产品“显著更优”。另外两款模型 GPT-4.1 mini 和 GPT-4.1 nano 则在一定程度上牺牲了部分输出质量,以换取更低的定价。这三款模型均可处理最多 1 million Token 的提示,使它们能够对大型上传内容(例如 GitHub 仓库)进行分析。
在开发者请求语言模型协助完成编码任务时,他们通常不会只发送一个提示,而是会发送多个提示。此外,提示内容往往引用先前的输入信息。OpenAI 表示,GPT-4 较其前作在“从对话中的过往消息中提取信息”这一能力上提升了 10.5% ,这使其在高级编程任务中更为实用。
与编程相关的提示通常包括一个代码文件及对其某些部分进行修改的指令。对于这类提示,OpenAI 早期的模型往往不仅输出要求变更的部分,还会返回原始代码文件中未做修改的部分。由于公司是按模型输出量向客户收费的,这就增加了成本。
据 OpenAI 介绍,其工程师已将 GPT-4.1 配置为仅输出发生改变的代码行,而非整个文件。为了进一步降低成本,用户还可对常用提示的答案进行缓存。作为此次产品更新的一部分,OpenAI 将缓存折扣从 50% 提升至 75%。
此外,OpenAI 表示 GPT-4.1 在其他方面也为开发者带来了一系列改进。该模型在生成用户界面方面表现更加出色,并且不易产生冗余代码,从而减少了软件团队在筛选模型输出时所需投入的时间。
今天推出的第二款新模型 GPT-4.1 mini 是一款在硬件效率上更优、但功能略逊一筹的算法。尽管如此,其性能与 GPT-4.1 的前身仍具竞争力。正如 OpenAI 工作人员在博客文章中描述的那样:“它在智力评估中达到了或超过 GPT-4o 的表现,同时将延迟减少了近一半,并且将成本降低了 83%。”
该公司语言模型阵容中的第三款产品是 GPT-4.1 nano。它专为相对简单的任务设计,例如根据主题对文档进行分类或支持编程工具中的代码自动完成功能。除了成本更低之外,它还承诺相比 OpenAI 推出的其他两款新模型具有显著更低的延迟。
OpenAI 工作人员写道:“我们改进了推理架构以缩短生成首个 Token 的时间,并且借助提示缓存,您可以在降低延迟的同时节省成本。在初步测试中,GPT-4.1 在包含 128000 Token 上下文条件下,其 p95 生成首个 Token 延迟约为 15 秒,而在包含 1000000 Token 上下文时延迟则可达半分钟左右。”
OpenAI 不计划将 GPT-4.1 应用于 ChatGPT,相反,公司选择优化早期用来支撑聊天机器人服务的 GPT-4o 模型在编码和指令跟随能力方面的表现。
好文章,需要你的鼓励
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。