过去一年,企业级 AI 智能体开发平台呈爆发式增长,其中低代码开发平台尤受欢迎。随着各组织机构的智能体生态系统不断发展,大型模型提供商开始着手开发一体化的智能体创建和管理平台也就不足为奇了。
基于这一背景,Google 今天宣布扩展其智能体产品线,以应对其他智能体开发平台的竞争。Google 表示,其新推出的智能体开发套件 (ADK) 及其他新增功能可以让用户更好地控制智能体的行为。
该公司称,ADK 简化了在 Gemini 模型上构建多智能体系统的过程。Google 声称用户可以"用不到 100 行直观的代码构建 AI 智能体"。该平台还支持由 Anthropic 开发的模型上下文协议 (MCP),这一数据连接协议有助于标准化智能体之间的数据传输。
Google 表示 ADK 将帮助组织: - 通过编排控制和防护机制来塑造智能体的思考、推理和协作方式 - 利用 ADK 独特的双向音视频流功能实现"类人对话交互" - 通过现成的示例智能体和工具加速开发 - 从 Google 的模型库中选择最适合的模型 - 选择部署目标,可以是 Kubernetes 或 Google 的 Vertex AI - 通过 Vertex AI 直接部署智能体到生产环境
虽然 ADK 针对 Gemini 模型进行了优化,但 Vertex AI 允许访问来自 Anthropic、Meta、Mistral、AI21 Labs、CAMB.AI 和 Qodo 的模型。Google 表示开发者可以使用 ADK 将智能体和应用程序响应与不同的数据连接器相结合。
更多智能体支持功能
Google 还推出了 Agent Engine,这是一个与 ADK 并行的托管运行时仪表板,具有企业级控制功能。
在新闻发布会上,Google 向记者表示,Agent Engine 允许组织从概念到训练再到最终生产的全流程管理。它处理"智能体上下文、基础设施管理、扩展复杂性、安全性、评估和监控"。
Agent Engine 可与 ADK 集成,也可部署在 LangGraph 或 CrewAI 等其他框架上。
通过短期和长期记忆支持,用户可以为智能体保持上下文。他们可以自定义智能体可以从过去的对话或会话中提取多少或多少信息。
Agent Engine 还允许企业评估智能体在实时使用过程中的行为和可靠性。
希望获得更多智能体构建帮助的企业可以访问 Google 的新型 Agent Garden。Agent Garden 类似于模型库,是一个预构建智能体和工具的库,用户可以用它来模拟他们的智能体。
智能体管理
对许多组织来说,智能体的安全性和可信度是一个重要关注点。目前有许多新方法可以提高智能体的可靠性和准确性。
Google 通过 ADK 和 Vertex AI 提供的解决方案为企业带来了额外的配置选项,包括: - 通过内容过滤器、定义边界和禁止主题来控制智能体输出 - 通过智能体权限进行身份控制 - 对智能体可访问的数据进行安全参数限制,以防止敏感数据泄露 - 设置防护机制,包括在输入到达运行智能体的模型之前进行筛选 - 自动监控智能体行为
智能体平台竞争加剧
企业此前已经能够使用 Google 的 AI 服务构建智能体。不过,ADK 及其他智能体 AI 产品的推出使 Google 与其他智能体提供商的竞争更加激烈。科技公司正越来越多地提供一站式智能体构建平台。
Google 需要证明其一站式智能体创建平台(为 Gemini 模型和 Vertex AI 优化)是更好的选择。
OpenAI 在 3 月发布了 Agents SDK,允许人们使用开源工具(包括非 OpenAI 模型)构建智能体。Agents SDK 还提供可配置的企业安全性和防护机制。Amazon 在 2023 年推出的 Agents on Bedrock 也允许组织在一个平台上构建智能体,而且 Bedrock 去年更新了编排功能。
新兴公司 Emergence AI 发布了一个智能体构建平台,让人们可以根据需要随时创建任何 AI 智能体。用户只需指定要完成的任务,AI 模型就会创建相应的智能体来完成任务。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。