过去一年,企业级 AI 智能体开发平台呈爆发式增长,其中低代码开发平台尤受欢迎。随着各组织机构的智能体生态系统不断发展,大型模型提供商开始着手开发一体化的智能体创建和管理平台也就不足为奇了。
基于这一背景,Google 今天宣布扩展其智能体产品线,以应对其他智能体开发平台的竞争。Google 表示,其新推出的智能体开发套件 (ADK) 及其他新增功能可以让用户更好地控制智能体的行为。
该公司称,ADK 简化了在 Gemini 模型上构建多智能体系统的过程。Google 声称用户可以"用不到 100 行直观的代码构建 AI 智能体"。该平台还支持由 Anthropic 开发的模型上下文协议 (MCP),这一数据连接协议有助于标准化智能体之间的数据传输。
Google 表示 ADK 将帮助组织: - 通过编排控制和防护机制来塑造智能体的思考、推理和协作方式 - 利用 ADK 独特的双向音视频流功能实现"类人对话交互" - 通过现成的示例智能体和工具加速开发 - 从 Google 的模型库中选择最适合的模型 - 选择部署目标,可以是 Kubernetes 或 Google 的 Vertex AI - 通过 Vertex AI 直接部署智能体到生产环境
虽然 ADK 针对 Gemini 模型进行了优化,但 Vertex AI 允许访问来自 Anthropic、Meta、Mistral、AI21 Labs、CAMB.AI 和 Qodo 的模型。Google 表示开发者可以使用 ADK 将智能体和应用程序响应与不同的数据连接器相结合。
更多智能体支持功能
Google 还推出了 Agent Engine,这是一个与 ADK 并行的托管运行时仪表板,具有企业级控制功能。
在新闻发布会上,Google 向记者表示,Agent Engine 允许组织从概念到训练再到最终生产的全流程管理。它处理"智能体上下文、基础设施管理、扩展复杂性、安全性、评估和监控"。
Agent Engine 可与 ADK 集成,也可部署在 LangGraph 或 CrewAI 等其他框架上。
通过短期和长期记忆支持,用户可以为智能体保持上下文。他们可以自定义智能体可以从过去的对话或会话中提取多少或多少信息。
Agent Engine 还允许企业评估智能体在实时使用过程中的行为和可靠性。
希望获得更多智能体构建帮助的企业可以访问 Google 的新型 Agent Garden。Agent Garden 类似于模型库,是一个预构建智能体和工具的库,用户可以用它来模拟他们的智能体。
智能体管理
对许多组织来说,智能体的安全性和可信度是一个重要关注点。目前有许多新方法可以提高智能体的可靠性和准确性。
Google 通过 ADK 和 Vertex AI 提供的解决方案为企业带来了额外的配置选项,包括: - 通过内容过滤器、定义边界和禁止主题来控制智能体输出 - 通过智能体权限进行身份控制 - 对智能体可访问的数据进行安全参数限制,以防止敏感数据泄露 - 设置防护机制,包括在输入到达运行智能体的模型之前进行筛选 - 自动监控智能体行为
智能体平台竞争加剧
企业此前已经能够使用 Google 的 AI 服务构建智能体。不过,ADK 及其他智能体 AI 产品的推出使 Google 与其他智能体提供商的竞争更加激烈。科技公司正越来越多地提供一站式智能体构建平台。
Google 需要证明其一站式智能体创建平台(为 Gemini 模型和 Vertex AI 优化)是更好的选择。
OpenAI 在 3 月发布了 Agents SDK,允许人们使用开源工具(包括非 OpenAI 模型)构建智能体。Agents SDK 还提供可配置的企业安全性和防护机制。Amazon 在 2023 年推出的 Agents on Bedrock 也允许组织在一个平台上构建智能体,而且 Bedrock 去年更新了编排功能。
新兴公司 Emergence AI 发布了一个智能体构建平台,让人们可以根据需要随时创建任何 AI 智能体。用户只需指定要完成的任务,AI 模型就会创建相应的智能体来完成任务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。