OpenAI今日发布了新的生成式AI模型,虽然不是GPT-5,但这些新模型可能更加有趣。该公司推出了gpt-oss-120b和gpt-oss-20b,这是自2019年发布GPT-2以来首批开放权重模型。用户可以下载并在自己的硬件上运行这些模型,支持模拟推理、工具使用和深度定制。
与云端的专有模型不同,新的OpenAI模型提供两个版本(120b和20b),可在功能相对较弱的硬件配置上运行。两款都是Transformer架构,配备可配置的思维链(CoT),支持低、中、高三个设置等级。较低设置运行更快,计算资源消耗更少,但最高设置输出质量更佳。用户可通过系统提示中的单行代码设置CoT级别。
较小的gpt-oss-20b总共有210亿参数,利用专家混合(MoE)技术将每个Token的参数降至36亿。gpt-oss-120b拥有1170亿参数,通过MoE技术每个Token使用51亿参数。公司表示,较小模型可在16GB或更大内存的消费级机器上运行。运行gpt-oss-120b需要80GB内存,虽然超出普通消费机器配置,但可适配单个AI加速GPU如Nvidia H100。两款模型的上下文窗口均为128,000个Token。
团队表示,gpt-oss用户可期待与领先云端模型相似的强劲性能。在大多数测试中,较大版本的基准测试结果介于o3和o4-mini专有模型之间,较小版本稍逊一筹。在数学和编程任务中表现最接近。在基于知识的"人类最后考试"测试中,o3以24.9%(使用工具)遥遥领先,而gpt-oss-120b仅达到19%。相比之下,谷歌领先的Gemini Deep Think在该测试中达到34.8%。
OpenAI表示并不打算让任何人用新的开源版本替代其专有模型。该公司并非旨在复制主流GPT版本的功能,这些模型存在一些显著限制。例如,gpt-oss-120b和gpt-oss-20b仅支持文本,无多模态功能。不过,公司承认在某些情况下,用户可能不希望依赖大型云端AI——本地管理的AI具有更低延迟、更多定制机会,并能在现场保护敏感数据安全。
OpenAI意识到许多专有模型用户出于这些原因也在使用开源模型。目前,这些公司使用非OpenAI产品进行本地AI处理,但团队设计gpt-oss模型以与专有GPT模型集成。现在客户即使需要本地处理部分数据,也能使用端到端的OpenAI产品。
由于这些模型完全开放并遵循Apache 2.0许可证,开发者能够针对特定用例进行调优。与所有AI公司一样,OpenAI在模型中内置控制机制以限制恶意行为,但距离该公司上次发布开放模型已有数年——gpt-oss模型比2019年的GPT-2强大得多。
为确保在安全方面尽力而为,OpenAI决定通过调优gpt-oss使其表现恶意来测试最坏情况。开发人员表示,即使试图让模型行为不当,基于公司的准备框架,它在做恶意事情方面从未达到高质量水平。OpenAI声称这意味着其使用的审慎对齐和指令层级将防止开放模型的严重滥用。
如果想要自行验证这一声明,gpt-oss-120b和gpt-oss-20b今日可在HuggingFace上下载。还有GitHub存储库供查阅,OpenAI将在自己的基础设施上托管标准版本模型供测试。如需了解更多技术细节,该公司提供了模型卡片和研究博客文章。
Q&A
Q1:gpt-oss-120b和gpt-oss-20b有什么区别?
A:gpt-oss-120b拥有1170亿参数,通过专家混合技术每个Token使用51亿参数,需要80GB内存运行;gpt-oss-20b有210亿参数,每个Token使用36亿参数,可在16GB内存的消费级机器上运行。两款模型都支持可配置思维链功能。
Q2:这些开源模型性能如何?
A:较大版本gpt-oss-120b在大多数测试中表现介于o3和o4-mini专有模型之间,在数学和编程任务中表现最接近。在"人类最后考试"测试中达到19%,而o3达到24.9%,谷歌Gemini Deep Think达到34.8%。
Q3:OpenAI发布开源模型的目的是什么?
A:OpenAI并不打算让用户用开源版本替代专有模型,而是为了满足用户在某些情况下的本地AI需求。本地模型具有更低延迟、更多定制机会,并能保护敏感数据安全,同时可与专有GPT模型集成使用。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。