OpenAI今日推出了新的人工智能模型GPT-5-Codex,该公司表示这款模型能够在无需用户协助的情况下完成长达数小时的编程任务。
该算法是GPT-5的改进版本,在额外的编程数据上进行了训练。用户可以通过Codex访问该模型,Codex是付费ChatGPT计划中包含的AI编程工具。
OpenAI表示,GPT-5-Codex在处理复杂、耗时的编程任务方面比其前身表现更优。"在测试期间,我们看到GPT-5-Codex能够独立工作超过7小时,"OpenAI工作人员在今天的博客文章中详细说明。GPT-5-Codex能够发现在长时间编程会话中犯的错误并自动修复。
据OpenAI介绍,该模型处理耗时任务的能力使其在重构方面特别有用。重构是指改变应用程序代码库的过程,目的不是添加功能,而是提高代码质量。例如,开发人员可能希望减少代码片段的内存使用或提升响应时间。
OpenAI使用内部开发的重构基准测试评估了GPT-5-Codex的能力。该模型得分为51.3%,比GPT高出17%以上。
GPT-5-Codex可以根据任务难度调整处理时间。因此,该模型处理简单请求的速度明显快于GPT-5。"这意味着在处理小型、定义明确的请求或与其聊天时,Codex会感觉更加敏捷,"OpenAI工作人员写道。
ChatGPT开发商让员工向GPT-5-Codex发送编程请求,并根据模型生成的Token计数(硬件使用量的衡量标准)对这些请求进行排名。据OpenAI称,最简单的10%请求使用的Token比GPT-5减少了93.7%。相比之下,最复杂的编程提示会导致GPT-5-Codex花费比GPT-5更多的时间进行推理。
OpenAI表示该模型还带来了可用性改进。如果开发人员希望GPT-5生成遵循特定风格或最佳实践的代码,他们通常必须输入详细的自然语言指令。GPT-5-Codex减少了对指导的需求。
Codex是访问该模型的AI编程工具,此前有两个版本。一个嵌入在ChatGPT中,另一个是命令行工具。结合GPT-5-Codex的发布,OpenAI正在推出第三个版本,开发人员可以直接将其集成到代码编辑器中。
新的Codex版本通常比其他两个版本需要更短的提示。据OpenAI称,原因是它不仅可以访问提示的内容,还可以访问开发人员代码编辑器中打开的文件。同时,Codex的命令行版本现在允许开发人员上传解释性图像,如用户界面草图。
GPT-5-Codex现已通过ChatGPT的Plus、Pro、Business、Edu和Enterprise计划中的Codex立即可用。OpenAI计划在不久的将来将该模型添加到其应用程序编程接口中。
Q&A
Q1:GPT-5-Codex有什么特别的能力?
A:GPT-5-Codex能够在无需用户协助的情况下独立工作超过7小时,完成复杂、耗时的编程任务。它还能发现在长时间编程会话中犯的错误并自动修复,特别适用于代码重构工作。
Q2:GPT-5-Codex比GPT-5有哪些改进?
A:GPT-5-Codex在重构基准测试中得分51.3%,比GPT高出17%以上。它能根据任务难度调整处理时间,处理简单请求比GPT-5快93.7%,同时减少了对详细自然语言指令的需求。
Q3:如何使用GPT-5-Codex?
A:GPT-5-Codex可通过ChatGPT的Plus、Pro、Business、Edu和Enterprise计划中的Codex工具访问。现在有三个版本:嵌入ChatGPT的版本、命令行工具版本,以及可直接集成到代码编辑器的新版本。
好文章,需要你的鼓励
33年后,贝尔纳多·金特罗决定寻找改变他人生的那个人——创造马拉加病毒的匿名程序员。这个相对无害的病毒激发了金特罗对网络安全的热情,促使他创立了VirusTotal公司,该公司于2012年被谷歌收购。这次收购将谷歌的欧洲网络安全中心带到了马拉加,使这座西班牙城市转变为科技中心。通过深入研究病毒代码和媒体寻人,金特罗最终发现病毒创造者是已故的安东尼奥·恩里克·阿斯托尔加。
这项由多伦多大学领导的研究首次系统性地揭示了分词器选择对语言模型性能的重大影响。通过训练14个仅在分词器上有差异的相同模型,并使用包含5000个现实场景测试样本的基准测试,研究发现分词器的算法设计比词汇表大小更重要,字符级处理虽然效率较低但稳定性更强,而Unicode格式化是所有分词器的普遍弱点。这一发现将推动AI系统基础组件的优化发展。
人工智能安全公司Cyata发现LangChain核心库存在严重漏洞"LangGrinch",CVE编号为2025-68664,CVSS评分达9.3分。该漏洞可导致攻击者窃取敏感机密信息,甚至可能升级为远程代码执行。LangChain核心库下载量约8.47亿次,是AI智能体生态系统的基础组件。漏洞源于序列化和反序列化注入问题,可通过提示注入触发。目前补丁已发布,建议立即更新至1.2.5或0.3.81版本。
北京大学研究团队提出NExT-Vid方法,首次将自回归下一帧预测引入视频AI预训练。通过创新的上下文隔离设计和流匹配解码器,让机器像人类一样预测视频下一帧来学习理解视频内容。该方法在四个标准数据集上全面超越现有生成式预训练方法,为视频推荐、智能监控、医疗诊断等应用提供了新的技术基础。