OpenAI 推出 o3-pro,这是一款公司宣称迄今为止最强大的 AI 模型。
o3-pro 是 OpenAI 今年早些时候推出的 o3 推理模型的一个版本。与传统 AI 模型不同,推理模型能够分步解决问题,使其在物理、数学和编码等领域表现得更加稳定可靠。
OpenAI 表示,从本周二开始,o3-pro 将面向 ChatGPT Pro 和 Team 用户提供服务,并取代目前的 o1-pro 模型。企业和教育用户将在下周获得访问权限。o3-pro 今下午也已在 OpenAI 的开发者 API 中上线。
在 API 中,o3-pro 的定价为每百万输入 Token 收费 20 美元,每百万输出 Token 收费 80 美元。输入 Token 指送入模型的 Token,而输出 Token 指模型根据输入生成的 Token。
一百万个输入 Token 相当于大约 750,000 个单词,这比《战争与和平》略长。
OpenAI 在更新日志中写道:“在专家评估中,评审员在每个测试类别中均一致偏好 o3-pro,相比 o3 在科学、教育、编程、商务和写作协助等关键领域尤为突出。评审员还对 o3-pro 在清晰度、全面性、指令响应和准确性方面的一致高分给予认可。”
根据 OpenAI 的介绍,o3-pro 拥有使用工具的能力,能够进行网络搜索、文件分析、对视觉输入进行推理、使用 Python、利用内存个性化其响应等功能。不过,OpenAI 指出,由于这些功能,o3-pro 的响应通常需要比 o1-pro 更长的时间来完成。
o3-pro 也存在一些限制。目前,由于 OpenAI 正在解决一项“技术问题”,在 ChatGPT 中与该模型进行临时聊天的功能被禁用。o3-pro 不能生成图像,并且 OpenAI 的 AI 驱动工作区功能 Canvas 与 o3-pro 不兼容。
值得一提的是,根据 OpenAI 的内部测试,o3-pro 在流行的 AI 基准测试中取得了令人印象深刻的分数。在评估模型数学能力的 AIME 2024 测试中,o3-pro 的得分超过了 Google 表现最好的 AI 模型 Gemini 2.5 Pro。在 GPQA Diamond—一项针对博士级科学知识的测试中,o3-pro 也击败了 Anthropic 最近发布的 Claude 4 Opus。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。