OpenAI和Anthropic PBC这两家领先的人工智能模型提供商今日同时推出了针对推理任务优化的新型大语言模型。
OpenAI发布的新算法gpt-oss-120b和gpt-oss-20b采用开源许可证。Anthropic则发布了其专有Claude Opus 4大语言模型的升级版本。该更新改进了大语言模型的编程能力,公司声称已经超越了竞争对手。
开源性能表现
OpenAI表示,gpt-oss-120b和gpt-oss-20b在多项推理任务中超越了同等规模的开源模型。前者拥有1170亿个参数,后者包含210亿个参数。两个模型都能运行代码、与数据库等外部系统交互,并根据任务复杂度优化处理时间。
theCUBE Research联合创始人兼首席分析师Dave Vellante评论道:"专有API护城河正在缩小;企业现在可以内部运行和优化模型。我们认为,差异化现在体现在工具、强化学习循环、防护措施以及最重要的数据上。"
运行gpt-oss-20b只需要一张16GB内存的显卡。这意味着该模型足够紧凑,可以在某些消费级设备上运行。OpenAI研究人员在今日的博客文章中写道,该模型"非常适合设备端应用、本地推理或无需昂贵基础设施的快速迭代"。
该公司的另一个新模型gpt-oss-120b在硬件效率方面有所妥协,但输出质量更高。它可以在80GB内存的单张显卡上运行。该算法提供了与o4-mini相当的性能,后者是OpenAI最新最先进的专有推理模型之一。
gpt-oss-120b和gpt-oss-20b都基于专家混合架构。专家混合模型由多个神经网络组成,每个网络都针对特定任务集进行了优化。当收到提示时,模型只激活最适合生成答案的神经网络。
OpenAI的新模型具有两个性能优化功能:分组多查询注意力和旋转位置嵌入。前者技术减少了算法注意力机制的内存使用,用于解释用户提示。旋转位置嵌入则让语言模型更好地处理长输入。两个模型都支持128,000个Token的上下文窗口。
OpenAI通过多步骤过程开发了gpt-oss-120b和gpt-oss-20b。首先,在主要包含科学技术主题英语文本的数据集上训练它们。然后OpenAI进行了另外两轮训练,分别使用监督微调和强化学习。
监督微调使用包含解释内容注释的训练数据集。强化学习则不使用注释。后一种技术成本效益更高,因为它减少了开发人员组织数据集所需的时间。
Vellante表示:"无论OpenAI的意图如何,开源权重推理模型使前沿模型能力民主化,但将价值对话推向企业智能体、专有数据、强化学习反馈效果和业务上下文的更高层面。我们认为,构建数字孪生能力的企业将编程最有价值的智能体;其他人将争夺不断便宜的API的更薄利润。"
Claude Opus 4.1
在OpenAI最新产品更新的背景下,竞争对手Anthropic推出了名为Claude 4.1 Opus的新专有大语言模型。这是该公司旗舰Claude 4 Opus推理模型的升级版本。Anthropic在5月发布后者时将其描述为"世界上最好的编程模型"。
Claude Opus 4在SWE-bench Verified基准测试中得分72.5%,该基准用于测量大语言模型的编程能力。新的Claude Opus 4.1模型达到了74.5%。此外,Anthropic还改进了大语言模型的研究和数据分析能力。
Claude Opus 4.1今日在该公司Claude AI助手的付费版本中可用,也可通过其应用程序编程接口、Amazon Bedrock和Google Cloud的Vertex AI服务获得。此次更新是Anthropic大语言模型产品线计划增强系列中的第一个。公司预计在未来几周内发布其他升级,并将其描述为"大幅扩展"。
Q&A
Q1:OpenAI发布的开源模型有什么特点?
A:OpenAI发布了gpt-oss-120b和gpt-oss-20b两个开源推理模型。gpt-oss-20b只需16GB显卡即可运行,适合消费级设备;gpt-oss-120b需要80GB显卡,性能可比肩OpenAI专有模型o4-mini。两者都能运行代码、与外部系统交互,支持128,000个Token上下文窗口。
Q2:Claude Opus 4.1相比前一版本有哪些改进?
A:Claude Opus 4.1是Claude 4 Opus的升级版,在编程能力方面从72.5%提升到74.5%(SWE-bench Verified基准测试)。此外还改进了研究和数据分析能力。该模型可通过Claude AI助手付费版本、API、Amazon Bedrock和Google Cloud Vertex AI服务获得。
Q3:这些新模型对企业有什么影响?
A:专家认为开源推理模型使前沿AI能力民主化,企业可以内部运行和优化模型,减少对专有API的依赖。差异化将体现在工具、数据和业务上下文上。构建数字孪生能力的企业将获得最大价值,其他企业可能面临更激烈的竞争。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。