人工智能的未来将由 AI 代理主导,为了加速这一进程,OpenAI 现在正通过让开发者构建自己的 AI 代理来推动这一愿景的实现。
今天,这家 AI 公司宣布推出新的"Responses API",该接口简化了创建和部署能够独立为用户执行任务的 AI 代理的过程。
Responses API 允许开发者创建由 OpenAI 大语言模型驱动的 AI 代理。据公司表示,该 API 最终将取代现有的 Assistants API,后者将在大约一年后退役。
OpenAI 表示,这项新服务将促进创建能够使用文件搜索工具来扫描公司内部数据集并搜索互联网的 AI 代理。这些功能类似于 OpenAI 最近发布的 Operator 代理,该代理依赖于计算机使用代理 (CUA) 模型来帮助自动化数据录入等任务。
值得注意的是,OpenAI 此前已承认 CUA 模型在尝试自动化操作系统任务时可能不太可靠,并且容易出错。因此,OpenAI 提醒开发者 Responses API 仍应被视为"早期版本",并表示它将随着时间推移变得更加可靠。
在使用 Responses API 创建 AI 代理时,开发者可以选择两种模型:GPT-4o search 和 GPT-4o mini search。据该公司介绍,这两种模型都能够自主浏览网络以寻找问题的答案,并且会引用其回答所依据的来源。
这是一项重要的功能,因为 OpenAI 表示,搜索网络和探索公司私有数据集的能力可以显著提高其模型的准确性,从而提升基于这些模型的代理的表现。公司在其自己的 SimpleQA 基准测试(用于衡量 AI 系统虚构率的测试)中展示了具有搜索能力的模型的优越性。
根据 OpenAI 的数据,GPT-4o search 达到了 90% 的得分,而 GPT-4o mini search 得分为 88%。相比之下,拥有更多参数且更强大的新 GPT-4.5 模型在同样的基准测试中仅得到 63% 的分数,这是因为它缺乏搜索额外信息的能力。
尽管如此,开发者应该记住,虽然这些模型带来了改进,但搜索功能并不能完全解决 AI 的虚构或幻觉问题。基准测试分数表明,GPT-4o search 在大约 10% 的回答中仍会出现事实性错误。对于许多代理式 AI 工作负载而言,这样的错误率可能仍然过高。
即便如此,OpenAI 仍然希望鼓励开发者开始尝试。除了 Responses API,它还发布了一个开源的 Agents SDK,提供了将 AI 模型和代理与内部系统集成的工具。它还提供了实施安全保护和监控 AI 代理活动的工具。这是继另一个名为 Swarm 的工具发布之后的举措,Swarm 为开发者提供了管理和协调多个 AI 代理的框架。
这些新工具都是为了增加 OpenAI 大语言模型的市场份额。根据代理式 AI 创业公司 SOCi Inc. 的市场洞察总监 Damian Rollison 表示,该公司已经使用过类似的策略,比如在新的 Apple Intelligence 套件中将 ChatGPT 与 Apple Inc. 的 Siri 集成,使其接触到新的用户群。
"新的 Responses API 为更广泛地向公众普及 AI 代理的概念开辟了可能性,这些代理可能会被嵌入到他们已经在使用的各种工具中,"Rollison 说。
毫无疑问,一些开发者会急于看到他们能创造出什么样的 AI 代理,但重要的是要记住,这些技术仍处于初期阶段,并不总是像一些用户声称的那样有效。本周早些时候,一家中国创业公司推出的名为 Manus 的 AI 代理在互联网上引起轰动,让一些早期使用者感到惊艳,但在更广泛使用后很快就暴露出了不足。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。