在 Google Cloud 年度用户大会 Cloud Next 上,公司展示了其 AI 代理愿景。Google 推出了一系列工具和服务,让开发者和企业用户能够构建 AI 代理。
Gemini 作为 Google AI 战略的基石
Gemini 是 Google AI 代理战略的基石,利用其先进的多模态能力来处理和生成文本、图像、音频、视频和代码等内容的响应。由 DeepMind 开发的 Gemini 旨在适应从个人助手到企业解决方案等多样化应用场景。从轻量级的 Nano 到企业级的 Ultra,其模型系列都针对推理、编程和内容创作进行了优化。
Google 发布 Gemini 2.5 Pro,突破 AI 推理能力边界
最新版本 Gemini 2.5 引入了增强的推理和长上下文能力,可以进行复杂的问题解决和研究辅助。Gemini 已集成到 Google Workspace 和 Vertex AI 等产品中,让开发者和企业能够在代理时代创造创新解决方案。
Vertex AI 中的首要代理地位
Google Cloud 的 AI 平台产品 Vertex AI 进行了重大更新以支持代理和代理工作流。Vertex AI 让开发者能够访问 Gemini 等第一方模型和通过模型库访问 Llama 等开源模型。它支持对现有模型进行微调并部署它们以供 AI 应用程序使用。
类似于模型库,开发者可以使用由 Google 和其他开发者预定义的代理库。这个可直接在 ADK 中访问的现成样本和工具集合,为开发者提供了预构建的代理模式和组件,以加快开发过程。
与支持异构基础模型类似,Vertex AI 支持多种代理框架,包括 Google 自己的代理开发工具包、CrewAI、LangChain 和 AutoGen 2。
通过 Vertex AI,开发者可以访问用于设计、开发、测试、评估和部署 AI 代理的完整技术栈。
面向开发者的代理引擎和代理开发工具包
Google Cloud 的 Vertex AI 代理引擎是一个完全托管的服务,旨在简化生产环境中代理的部署、管理和扩展。它抽象了基础设施管理、安全性和监控等运营复杂性,使开发者能够专注于创建智能应用程序。代理引擎支持 LangChain、AutoGen 2 和 LlamaIndex 等多个框架,为构建和调整代理提供了灵活性。功能包括集成评估工具、用于上下文保留的记忆能力和用于调试的强大追踪功能。
通过与 Google Cloud 生态系统的无缝集成,它使开发者能够创建复杂的多代理工作流,同时确保合规性和运营效率。
代理开发工具包是 Google 代理战略的核心,这是一个新的开源框架,旨在简化代理和多代理系统的全栈端到端开发。这不仅仅是另一个实验性工具——它是驱动 Google 自己的产品(如 Agentspace 和 Google 客户参与套件)中代理的同一框架。
ADK 旨在通过使用熟悉的编程模式使代理开发感觉像传统软件开发。一些功能包括:
- 用不到 100 行直观的 Python 代码构建代理 - 用于创建真正交互式体验的原生双向音频和视频流 - 通过简单命令启动的内置 UI 进行本地调试 - 灵活使用各种模型 (Gemini 或通过模型库访问的任何模型,包括来自 Anthropic、Meta、Mistral AI 等的选项) - 支持确定性工作流和 LLM 驱动的动态路由
该框架通过确定性护栏和编排控制为开发者提供了对代理如何思考、推理和协作的细粒度控制。
用于代理通信和互操作性的 A2A 协议
Google 的 Agent2Agent 协议是一个开放标准,旨在实现跨不同平台和框架的 AI 代理之间的无缝通信和协作。通过建立代理间交互的通用语言,A2A 允许代理安全地交换信息、协调行动并动态协作,而无需共享内存或工具。A2A 基于 HTTP、JSON-RPC 和 Server-Sent Events 等熟悉的 Web 技术构建,确保易于集成到现有 IT 系统中,同时维持企业级安全性。
该协议支持长期运行的任务和多模态通信,使代理能够处理涉及文本、图像、音频或视频的复杂工作流。A2A 使企业能够构建可互操作的多代理生态系统,提高效率、自动化流程并推动创新。在包括 Atlassian 和 Salesforce 在内的 50 多个行业合作伙伴的支持下,A2A 代表了 Google 促进协作 AI 架构以应对企业挑战的愿景。
对模型上下文协议的官方支持
模型上下文协议是由 Anthropic 开发的开放标准,旨在简化 AI 系统与外部数据源的交互方式。它提供了一个统一的框架,用于 AI 模型与数据库、API 和业务应用程序等工具之间的安全双向通信,无需自定义集成即可实现实时的上下文感知响应。
Google 通过将 MCP 集成到其 Gemini 模型和 ADK 中而采用了该协议。这一举措与行业采用 MCP 作为连接 AI 系统到数据存储库和工具的标准的趋势保持一致。通过支持 MCP,Google 使开发者能够构建更高效的工作流,利用标准化连接来减少复杂性并提高可扩展性。
Google 将 MCP 定位为其 A2A 协议的补充,专注于智能工具编排,同时促进多代理生态系统的互操作性。这种双重方法突显了 Google 在代理 AI 时代推进开放标准的承诺。
面向企业用户的 Agentspace 平台
AgentSpace 是 Google Cloud 的企业 AI 平台,旨在统一组织知识并使用由 Gemini 驱动的多模态 AI 代理简化工作流程。它作为企业搜索、数据综合和代理部署的中心枢纽,使员工能够访问跨 Salesforce、SharePoint 和 ServiceNow 等各种应用程序的结构化和非结构化数据。AgentSpace 包括用于研究的 NotebookLM 等工具和用于深度研究和创意生成等任务的预构建专家代理。
如果说代理引擎和 ADK 是为开发者准备的,那么 Agentspace 就是一个供企业用户定义和构建代理的无代码环境。
最终思考
Google 在 Cloud Next 2025 的公告代表了其对以实现和编排代理 AI 系统为中心的 AI 驱动未来的战略性全栈承诺。通过提供全面的框架、开放协议和强大的基础设施,Google 正试图将自己定位为构建下一代智能自主系统的首选平台。
这一战略反映了 Google 认识到 AI 的未来不仅仅在于更强大的模型,还在于创建专业化、协作代理的生态系统,这些代理可以改变企业运营。这种智能、协作的 AI 系统愿景代表了当前 AI 实现的重大演进,标志着 Google 有意引领 AI 发展的下一阶段。
好文章,需要你的鼓励
Nvidia宣布将在美国量产AI超级计算机,并与TSMC、Amkor、Wistron、SPIL及Foxconn合作,打造一套从黑岩芯片封装到AI服务器制造的完整生态体系,助力满足日益增长的AI算力需求。
自2024年6月起,Windows 及 Mac 版 OneDrive 共享文件夹显示为网页快捷方式,导致无法离线同步。虽然微软确认问题源于后台迁移,并积极调查,但至今未有永久修复,令用户长期受困。
OpenAI 推出了 GPT-4.1 系列,专注提升编程效率、扩展长文本处理能力与指令执行准确性,同时大幅降低成本,为企业和开发者提供更灵活的 AI 工具。
Nvidia 宣布计划在未来四年内打造并销售约5000亿美元美国本土 AI 超级计算设备,涵盖最新 Blackwell 加速器生产及美国制造基地建设,以满足日益激增的 AI 芯片需求。