OpenAI 今日宣布其 o3-mini 大语言模型正式向 ChatGPT 用户和开发者开放使用。
该发布消息在几小时前就已泄露。据 Wired 报道,OpenAI 提前发布 o3-mini 是为了应对 DeepSeek 上周一发布的专注推理的大语言模型 R1。后者的发布引发了人工智能股票的大幅抛售,也让人们对 OpenAI 模型的成本效益产生质疑。
o3-mini 在去年 12 月首次预览,它是 OpenAI 旗舰推理优化大语言模型 o3 的低成本版本,且运行速度更快。OpenAI 今天详细介绍称,o3-mini 的延迟性能与去年 9 月发布的较为基础的推理大语言模型 o1-mini 相当。
该公司已在 ChatGPT 的免费版、Plus 版、Pro 版和 Team 版中提供 o3-mini。该模型将于下周在企业版中推出。在 Plus 和 Team 版本中,o3-mini 的使用限制为每天 150 条消息,是 o1-mini 支持数量的三倍。
OpenAI 还通过多个应用程序接口 (API) 提供新模型。开发者可以使用这些 API 将 o3-mini 集成到他们的应用程序中。API 版本的模型提供三种不同输出质量的版本:o3-mini-low、o3-mini-medium 和 o3-mini-high。
OpenAI 的推理优化模型采用了称为"测试时计算"的处理方法。该方法通过增加生成每个答案所使用的硬件资源来提高大语言模型的响应质量。入门级的 o3-mini-low 版本需要最少的基础设施和时间来回答问题,而高端的 o3-mini-high 则需要最多的硬件资源。
在 12 月的演示中,OpenAI 展示了 o3-mini 与旗舰推理模型 o3 的对比。在一项编程挑战评估中,o3-mini 获得了 2,073 分,而 o3 获得了 2,727 分。其中,o3-mini 还用 Python 为自己的 API 编写了一个基于网络的聊天机器人界面。
OpenAI 工程师在 12 月的评估中还进行了其他测试。他们发现 o3-mini-high 在美国数学奥林匹克竞赛资格考试中获得了 83.6 分(满分 100 分),仅落后于 o3 不到 16 分。根据 OpenAI 今天发布的最新基准测试结果,o3-mini-high 的分数已提升到 79.6 分,这暗示公司可能自上月演示以来已对模型进行了升级。
OpenAI 于去年 9 月推出了第一代推理大语言模型 o1。据 Wired 今日援引消息源称,该发布揭示了公司内部开发流程存在的问题。报道称,OpenAI 将 o1 部署在一个并非为商业使用设计的 AI 技术栈上,为了追求速度而牺牲了一些"实验严谨性"。
该公司还开发了第二个更可靠的 AI 技术栈。OpenAI 曾试图合并这两种技术,但员工认为该项目"未能完全实现"。
在 12 月的 o3-mini 演示中,OpenAI 首席执行官 Sam Altman 详细说明,公司计划在发布前与外部 AI 安全研究人员合作测试 o3-mini。此前公司仅依赖内部安全测试。Altman 补充说,公司的旗舰推理模型 o3 将在 o3-mini 发布后"不久"推出。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。