人工智能的未来将由 AI 代理主导,为了加速这一进程,OpenAI 现在正通过让开发者构建自己的 AI 代理来推动这一愿景的实现。
今天,这家 AI 公司宣布推出新的"Responses API",该接口简化了创建和部署能够独立为用户执行任务的 AI 代理的过程。
Responses API 允许开发者创建由 OpenAI 大语言模型驱动的 AI 代理。据公司表示,该 API 最终将取代现有的 Assistants API,后者将在大约一年后退役。
OpenAI 表示,这项新服务将促进创建能够使用文件搜索工具来扫描公司内部数据集并搜索互联网的 AI 代理。这些功能类似于 OpenAI 最近发布的 Operator 代理,该代理依赖于计算机使用代理 (CUA) 模型来帮助自动化数据录入等任务。
值得注意的是,OpenAI 此前已承认 CUA 模型在尝试自动化操作系统任务时可能不太可靠,并且容易出错。因此,OpenAI 提醒开发者 Responses API 仍应被视为"早期版本",并表示它将随着时间推移变得更加可靠。
在使用 Responses API 创建 AI 代理时,开发者可以选择两种模型:GPT-4o search 和 GPT-4o mini search。据该公司介绍,这两种模型都能够自主浏览网络以寻找问题的答案,并且会引用其回答所依据的来源。
这是一项重要的功能,因为 OpenAI 表示,搜索网络和探索公司私有数据集的能力可以显著提高其模型的准确性,从而提升基于这些模型的代理的表现。公司在其自己的 SimpleQA 基准测试(用于衡量 AI 系统虚构率的测试)中展示了具有搜索能力的模型的优越性。
根据 OpenAI 的数据,GPT-4o search 达到了 90% 的得分,而 GPT-4o mini search 得分为 88%。相比之下,拥有更多参数且更强大的新 GPT-4.5 模型在同样的基准测试中仅得到 63% 的分数,这是因为它缺乏搜索额外信息的能力。
尽管如此,开发者应该记住,虽然这些模型带来了改进,但搜索功能并不能完全解决 AI 的虚构或幻觉问题。基准测试分数表明,GPT-4o search 在大约 10% 的回答中仍会出现事实性错误。对于许多代理式 AI 工作负载而言,这样的错误率可能仍然过高。
即便如此,OpenAI 仍然希望鼓励开发者开始尝试。除了 Responses API,它还发布了一个开源的 Agents SDK,提供了将 AI 模型和代理与内部系统集成的工具。它还提供了实施安全保护和监控 AI 代理活动的工具。这是继另一个名为 Swarm 的工具发布之后的举措,Swarm 为开发者提供了管理和协调多个 AI 代理的框架。
这些新工具都是为了增加 OpenAI 大语言模型的市场份额。根据代理式 AI 创业公司 SOCi Inc. 的市场洞察总监 Damian Rollison 表示,该公司已经使用过类似的策略,比如在新的 Apple Intelligence 套件中将 ChatGPT 与 Apple Inc. 的 Siri 集成,使其接触到新的用户群。
"新的 Responses API 为更广泛地向公众普及 AI 代理的概念开辟了可能性,这些代理可能会被嵌入到他们已经在使用的各种工具中,"Rollison 说。
毫无疑问,一些开发者会急于看到他们能创造出什么样的 AI 代理,但重要的是要记住,这些技术仍处于初期阶段,并不总是像一些用户声称的那样有效。本周早些时候,一家中国创业公司推出的名为 Manus 的 AI 代理在互联网上引起轰动,让一些早期使用者感到惊艳,但在更广泛使用后很快就暴露出了不足。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。