Amazon 于周一发布了 Nova Act,这是一款通用型 AI 代理,能够接管网页浏览器并独立执行一些简单操作。与这款新型代理 AI 模型一同发布的还有 Nova Act SDK,这是一个允许开发者使用 Nova Act 构建代理原型的工具包。
Nova Act 由 Amazon 最近在旧金山成立的 AGI 实验室开发,将为该公司即将推出的 Alexa+ 升级版提供核心功能支持,这是 Amazon 流行语音助手的生成式 AI 增强版本。不过,今天发布的 Nova Act 版本相对不够完善,Amazon 将其称为研究预览版。
开发者可以通过新网站 nova.amazon.com 访问 Nova Act 工具包,该网站同时也展示了 Amazon 各种 Nova 基础模型。
Nova Act 是 Amazon 在通用 AI 代理技术领域对抗 OpenAI 的 Operator 和 Anthropic 的 Computer Use 的尝试。多家领先科技公司认为,能够为用户导航网页的 AI 代理将使当今的 AI 聊天机器人更加实用。
虽然 Amazon 并非最早开发这类代理技术的公司,但通过 Alexa+,它可能拥有最广泛的覆盖范围。
Amazon 表示,使用 Nova Act SDK 的开发者应该能够代表用户自动执行基本操作,比如从 Sweetgreen 订购沙拉或预订晚餐。通过 Nova Act 工具包,开发者可以整合各种工具,使 AI 代理能够浏览网页、填写表格或在日历上选择日期。
Amazon 声称,Nova Act 在公司的多项内部测试中的表现优于 OpenAI 和 Anthropic 的代理。例如,在测量 AI 代理如何与屏幕上的文本交互的 ScreenSpot Web Text 测试中,Nova Act 得分为 94%,超过了 OpenAI 的 CUA (88%) 和 Anthropic 的 Claude 3.7 Sonnet (90%)。
然而,Amazon 并未使用更常见的代理评估方法(如 WebVoyager)对 Nova Act 进行基准测试。
Nova Act 是 Amazon 上述 AGI 实验室推出的首个公开产品,该实验室由前 OpenAI 研究员 David Luan 和 Pieter Abbeel 共同领导。两人此前都创立过自己的创业公司——Luan 创立了 Adept,而 Abbeel 共同创立了 Covariant——去年被 Amazon 挖走后负责领导其 AI 代理项目。
虽然让 AGI 实验室开发能订购 SweetGreen 的 AI 代理可能看起来有些奇怪,但 Luan 告诉 TechCrunch,他认为代理是创建超智能 AI 系统的关键一步。Luan 将 AGI 定义为"能帮助你完成人类在计算机上所做任何事情的 AI 系统"。
Luan 表示,他的团队设计 Nova Act SDK 是为了可靠地自动化短小简单的任务,并为开发者提供工具,以精确定义何时需要人类介入代理工作流程。他希望这能让开发者创建更可靠的代理应用程序,尽管这些应用程序不一定是完全自主的。
Amazon 在一个竞争激烈的领域推出了首个通用型 AI 代理,这对公司来说是一项至关重要的技术。Nova Act 的早期测试可能会让我们窥见备受期待的 Alexa+ 的部分功能,这将是 Amazon AI 努力的一个关键时刻。
OpenAI、Google 和 Anthropic 早期 AI 代理的一个主要问题是它们在不同领域的可靠性。在 TechCrunch 的测试中,这些系统运行缓慢,难以长时间独立运作,并且容易犯人类不会犯的错误。不久我们就能看到 Amazon 是否已经找到解决方案,或者其代理是否也存在困扰竞争对手的相同缺陷。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。