Opera 网页浏览器现在推出了"代理式 AI"功能,用户可以要求内置的 AI 模型执行一系列浏览器操作任务。
这基本上相当于将网页浏览任务委托给一个能力有限但可以处理某些事情的个人助理。虽然作为技术演示可能很有趣,但说实话,这有点夸张。
这个被称为"Browser Operator"的 AI 代理可以完成诸如查找 12 双男士 10 码 Nike 袜子等购物任务。在 Opera 制作的演示视频中(部分内容以 6 倍速播放),展示了用户只需要输入购买内衣的请求,而不是在网页上四处点击。
在给出的示例中,AI 通过浏览器聊天侧边栏完成了八个步骤,代替用户在网页显示窗格中进行点击和导航,最终到达 Walmart 的结账页面,并将两包共六双袜子添加到用户的购物车中,随时可以付款。
当然,你也可以在 15 秒内访问 Walmart 在线商店并点击几下就能完成同样的操作。不过这样一来,你的 AI 代理就失业了,这倒是挺讽刺的。
视频中还展示了其他任务,如查找特定音乐会门票和预订从奥斯陆到纽卡斯尔的机票,播放速度从 4 倍到 10 倍不等,最后由用户授权实际购买。
Browser Operator 的实际运行速度比视频中显示的要慢,不过这对于一个半自动助手来说反而是有帮助的。较慢的节奏允许用户随时介入并接管控制。
Opera Software 的执行副总裁 Krystian Kolondra 在一份声明中说:"30 多年来,浏览器让你能够访问网络,但从未能为你完成具体任务。"这种说法似乎忽视了解析现代 HTML 页面(包含 CSS 和 JavaScript)所需的数十亿个 CPU 周期。
"现在可以了。这与我们之前看到或发布的任何功能都不同。今天我们展示的 Browser Operator 标志着浏览器角色的首次转变,从显示引擎转变为能够为用户执行任务的代理应用程序。"
"现在可以了"实际上意味着"现在部分用户可以使用"—— Browser Operator 目前是一个预览功能,只有部分用户可以访问,尚未普遍可用。当我们在设置和标志菜单中寻找启用选项时,最新的 macOS 版 Opera 和 Opera Developer 版本都尚未支持 Browser Operator。
据该公司称,Browser Operator 将在不久的将来通过公司的 AI 功能发布计划推出。
据 Opera 称,Browser Operator 在本地运行。"它通过不依赖浏览会话的截图或视频捕获,也不依赖云端或虚拟机中运行的浏览器版本来保护用户隐私。"开发者如此声称。
其 Aria 设置页面包含以下警告:"AI 服务不应用于任何法律、医疗或咨询目的。我们建议您保持谨慎并核实事实。"
OpenAI 和 Anthropic 都发布了面向代理的服务,具体包括 OpenAI Operator 和 Anthropic 的 Claude 3.7 和 3.5 Sonnet 计算机使用 API。
令人惊讶的是,《华尔街日报》在 1 月份报道称,一些公司实际上正在使用 AI 代理。
Gartner 上周预测,在未来几年内,AI 代理将在企业运营中发挥重要作用。该 IT 咨询公司表示:"到 2028 年,Gartner 预测 33% 的企业软件应用程序将包含代理式 AI,而 2024 年这一比例不到 1%,至少 15% 的日常工作决策将通过 AI 代理自主完成。"
请记住,Gartner 此前也出现过错误预测。2014 年,Gartner 研究总监 Peter Sondergaard 预测"到 2025 年,三分之一的工作将被软件、机器人和智能机器取代。"仅仅三年后,Gartner 就改口说 AI 创造的工作岗位将多于它消除的岗位。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。