云计算巨头亚马逊云科技(AWS)相信AI智能体将改变我们工作和信息交互的方式,企业需要一个能够在统一平台上大规模构建和部署智能体的解决方案。
近日在纽约峰会上,AWS发布了Amazon Bedrock AgentCore,这是一个专为安全、大规模构建、部署和运营AI智能体而设计的企业级平台。
亚马逊云科技Agentic AI副总裁Swami Sivasubramanian在主题演讲中表示,AgentCore"帮助组织从实验阶段转向生产就绪的智能体系统,这些系统可以被信任处理最关键的业务流程。"
AgentCore是一个模块化服务堆栈(目前处于预览阶段),为开发者提供将AI智能体从原型转向生产所需的核心基础设施,包括运行时、内存、身份认证、可观测性、API集成以及网页浏览和代码执行工具。
"我们相信智能体将从根本上改变我们使用工具和互联网的方式,"AWS数据库和AI副总裁Deepak Singh说道。"智能体和应用程序之间的界限正在变得模糊。"
AgentCore基于2024年末推出的现有Bedrock Agents框架构建,但通过支持任何智能体框架或基础模型(不仅限于Bedrock托管的模型)显著扩展了功能。
这包括与开源工具包的兼容性,如CrewAI、LangChain、LlamaIndex、LangGraph以及AWS自有的Strands Agents SDK。
AWS Bedrock AgentCore功能详解
AgentCore运行时: 无服务器、低延迟执行环境,支持多模态工作负载和具有会话隔离的长期会话。
AgentCore内存: 长期和短期内存服务,让智能体能够从过往交互中学习并在会话间保持上下文知识。
AgentCore身份认证: 基于OAuth的身份和访问管理,允许智能体代表用户在GitHub、Slack或Salesforce等系统中执行操作。
AgentCore可观测性: 内置仪表板、调试和遥测工具,支持OpenTelemetry、LangSmith和Datadog。
AgentCore网关: 使用模型上下文协议(MCP)将内部API、Lambda函数和第三方服务转换为智能体兼容的工具。
AgentCore浏览器: 为智能体提供无头浏览器访问,以自主与网站交互。
AgentCore代码解释器: 为智能体生成的分析和可视化代码提供安全执行环境。
AgentCore还与AWS Marketplace集成,使团队能够发现和部署预构建的智能体和工具。
据Singh介绍,AgentCore在设计时考虑了互操作性。它支持新兴的行业标准,如MCP和Google的Agent-2-Agent(A2A)协议。AgentCore Identity和Gateway等功能确保智能体具有明确的权限,并能与内部系统和第三方API安全交互。
AWS的发布使其进入了企业AI中快速发展且竞争最激烈的细分市场。
OpenAI的Agents SDK和Google基于Gemini的Agents SDK都在推动类似的端到端智能体开发平台愿景。
Writer的AI HQ和Cognition(Devin的制造商)等初创公司也在构建管理自主软件智能体的工具。
"智能体是我们多年来见过的最具影响力的变化,"Sivasubramanian说道。"随着智能体的到来,软件服务化成为趋势。这是软件构建、部署和运营方式的重大转变。"
客户采用和早期应用案例
几家获得AgentCore早期访问的公司已经在金融、医疗、营销和内容管理等行业构建生产级智能体应用。
云文档和文件存储公司Box正在探索使用Strands Agents和Bedrock AgentCore Runtime扩展其内容管理工具的方法。
CTO Ben Kus表示,这种集成为Box客户提供了"顶级安全性和合规性",同时在企业环境中扩展AI能力。
巴西的Itaú Unibanco银行正在使用AgentCore支持其开发超个性化、安全的数字银行体验。首席技术官Carlos Eduardo Mazzei表示,新平台"将帮助我们提供直观的银行体验,具备客户期望的自动化效率和个性化服务。"
在医疗领域,Innovaccer基于AgentCore Gateway构建了新协议——HMCP(医疗模型上下文协议)。CEO兼联合创始人Abhinav Shashank称Gateway为"游戏规则改变者",使公司能够大规模将现有API转换为智能体兼容工具,同时保持信任、合规和运营效率。
营销公司Epsilon正在利用AgentCore加速活动构建时间并提升参与度。软件工程高级副总裁Prashanth Athota表示,公司预计构建时间将减少多达30%,并增强客户旅程个性化。
可用性和定价
AgentCore目前在美国东部(弗吉尼亚北部)、美国西部(俄勒冈)、亚太地区(悉尼)和欧洲(法兰克福)等AWS区域提供预览版。在2025年9月16日之前免费试用,此后开始收费。
AgentCore采用完全基于消费的定价模式,无需预付费用或最低费用。每个模块——运行时、内存、身份认证、可观测性、网关、浏览器和代码解释器——独立计费,可单独使用或组合使用。
运行时、浏览器和代码解释器服务按秒计费,基于CPU和内存使用量,价格为每vCPU小时0.0895美元,每GB小时0.00945美元。
网关服务收费标准为每1000次工具API调用0.005美元,每1000次搜索查询0.025美元,每月每100个索引工具0.02美元。
内存成本基于数据量:每1000个短期内存事件0.25美元,每1000个长期存储记忆0.75美元(自定义策略为0.25美元),每1000次检索0.50美元。
AgentCore Identity每1000个Token或API密钥请求收费0.010美元,但通过运行时或网关使用时免费提供。
可观测性通过Amazon CloudWatch费率计费。
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。