OpenAI和Anthropic PBC这两家领先的人工智能模型提供商今日同时推出了针对推理任务优化的新型大语言模型。
OpenAI发布的新算法gpt-oss-120b和gpt-oss-20b采用开源许可证。Anthropic则发布了其专有Claude Opus 4大语言模型的升级版本。该更新改进了大语言模型的编程能力,公司声称已经超越了竞争对手。
开源性能表现
OpenAI表示,gpt-oss-120b和gpt-oss-20b在多项推理任务中超越了同等规模的开源模型。前者拥有1170亿个参数,后者包含210亿个参数。两个模型都能运行代码、与数据库等外部系统交互,并根据任务复杂度优化处理时间。
theCUBE Research联合创始人兼首席分析师Dave Vellante评论道:"专有API护城河正在缩小;企业现在可以内部运行和优化模型。我们认为,差异化现在体现在工具、强化学习循环、防护措施以及最重要的数据上。"
运行gpt-oss-20b只需要一张16GB内存的显卡。这意味着该模型足够紧凑,可以在某些消费级设备上运行。OpenAI研究人员在今日的博客文章中写道,该模型"非常适合设备端应用、本地推理或无需昂贵基础设施的快速迭代"。
该公司的另一个新模型gpt-oss-120b在硬件效率方面有所妥协,但输出质量更高。它可以在80GB内存的单张显卡上运行。该算法提供了与o4-mini相当的性能,后者是OpenAI最新最先进的专有推理模型之一。
gpt-oss-120b和gpt-oss-20b都基于专家混合架构。专家混合模型由多个神经网络组成,每个网络都针对特定任务集进行了优化。当收到提示时,模型只激活最适合生成答案的神经网络。
OpenAI的新模型具有两个性能优化功能:分组多查询注意力和旋转位置嵌入。前者技术减少了算法注意力机制的内存使用,用于解释用户提示。旋转位置嵌入则让语言模型更好地处理长输入。两个模型都支持128,000个Token的上下文窗口。
OpenAI通过多步骤过程开发了gpt-oss-120b和gpt-oss-20b。首先,在主要包含科学技术主题英语文本的数据集上训练它们。然后OpenAI进行了另外两轮训练,分别使用监督微调和强化学习。
监督微调使用包含解释内容注释的训练数据集。强化学习则不使用注释。后一种技术成本效益更高,因为它减少了开发人员组织数据集所需的时间。
Vellante表示:"无论OpenAI的意图如何,开源权重推理模型使前沿模型能力民主化,但将价值对话推向企业智能体、专有数据、强化学习反馈效果和业务上下文的更高层面。我们认为,构建数字孪生能力的企业将编程最有价值的智能体;其他人将争夺不断便宜的API的更薄利润。"
Claude Opus 4.1
在OpenAI最新产品更新的背景下,竞争对手Anthropic推出了名为Claude 4.1 Opus的新专有大语言模型。这是该公司旗舰Claude 4 Opus推理模型的升级版本。Anthropic在5月发布后者时将其描述为"世界上最好的编程模型"。
Claude Opus 4在SWE-bench Verified基准测试中得分72.5%,该基准用于测量大语言模型的编程能力。新的Claude Opus 4.1模型达到了74.5%。此外,Anthropic还改进了大语言模型的研究和数据分析能力。
Claude Opus 4.1今日在该公司Claude AI助手的付费版本中可用,也可通过其应用程序编程接口、Amazon Bedrock和Google Cloud的Vertex AI服务获得。此次更新是Anthropic大语言模型产品线计划增强系列中的第一个。公司预计在未来几周内发布其他升级,并将其描述为"大幅扩展"。
Q&A
Q1:OpenAI发布的开源模型有什么特点?
A:OpenAI发布了gpt-oss-120b和gpt-oss-20b两个开源推理模型。gpt-oss-20b只需16GB显卡即可运行,适合消费级设备;gpt-oss-120b需要80GB显卡,性能可比肩OpenAI专有模型o4-mini。两者都能运行代码、与外部系统交互,支持128,000个Token上下文窗口。
Q2:Claude Opus 4.1相比前一版本有哪些改进?
A:Claude Opus 4.1是Claude 4 Opus的升级版,在编程能力方面从72.5%提升到74.5%(SWE-bench Verified基准测试)。此外还改进了研究和数据分析能力。该模型可通过Claude AI助手付费版本、API、Amazon Bedrock和Google Cloud Vertex AI服务获得。
Q3:这些新模型对企业有什么影响?
A:专家认为开源推理模型使前沿AI能力民主化,企业可以内部运行和优化模型,减少对专有API的依赖。差异化将体现在工具、数据和业务上下文上。构建数字孪生能力的企业将获得最大价值,其他企业可能面临更激烈的竞争。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。