智能体人工智能的兴起正在推动云安全策略的根本性重新思考,将重点从边界防御转向行为分析和自动化推理。
在拉斯维加斯举行的AWS re:Invent 2025大会上,亚马逊云科技(AWS)安全领域的专家小组讨论了AI智能体与生成式AI的区别,以及为什么安全从业者必须从AI消费者转变为安全工具的构建者。
虽然生成式AI创建内容,但智能体能够自主执行任务,这创造了一个风险档案。AWS安全服务副总裁Gee Rittenhouse将其与人类风险进行了比较。
"从检测的角度来看,我们从经典的保护工作负载的方式转向更多的行为视角,"他说。"一个以非确定性方式行动的独立智能体真的看起来像一个潜在的内部威胁。"
Rittenhouse指出,由于智能体的边界位于应用程序内部深处,安全团队必须将传统安全与可观测性相结合。
"这将我们推向行为和异常检测,"他说。"如果你不观察它,就很难做好智能体安全。"
机器速度的安全防护
AWS副总裁兼首席信息安全官Amy Herzog警告说,虽然安全的基础要素——身份管理和最小权限——仍然重要且不变,但当人类从循环中移除时,风险会更高。
"如果你以稍微不同的方式思考这些基础要素和智能体未能正确执行它们的风险,它们几乎更加重要,因为如果人类不参与系统的行动,如果出现问题,可能会更快地出错,"她说。
Herzog建议组织以机器速度而非人类速度思考安全问题,敦促构建者确保凭证是短期的且范围严格限定,以防止自主智能体的利用,特别是在人工干预最少的场景中。
AWS应用科学总监Neha Rungta强调,保护智能体就是要定义"自主性的边界"并建立信任。
"如果你有一个被允许进行退款的支持智能体,你能接受该智能体自主进行多少退款?是100美元?200美元?"她问道。"区别在于信任级别、它们被允许做什么的边界,以及如何确保它们不会失控?"
Rungta倡导使用自动化推理——使用数学证明来验证系统正确性——作为保持智能体在护栏内的关键工具。她还指出了新推出的AWS安全智能体,旨在在应用开发过程中将安全要求直接融入设计流程。
AWS首席信息安全官办公室副总裁Hart Rossman认为,安全行业目前过于专注于消费AI,比如要求聊天机器人总结日志,而不是用它来构建。
"我们看到更多安全从业者默认成为消费者,比如让大语言模型回答一些问题,"他说。"随着智能体技术的兴起,现在是成为构建者的好时机。"
Rossman还描述了一个未来,传统的安全控制台,如用于管理Web应用防火墙的控制台,将让位于个性化的、智能体驱动的体验。他引用AWS安全事件响应智能体作为例子,指出它可以通过主动识别证据和建议行动方案,将调查时间从数小时或数天缩短到几分钟。
尽管担心恶意行为者会使用AI来扩大攻击规模,但Rittenhouse对技术有利于防御者持乐观态度,指出AI可以通过改善数据分析和威胁检测来增强防御能力。
例如,他建议大语言模型允许防御者从对安全数据感到不堪重负转向主动管理,因为这些模型擅长在庞大的数据集中维护历史和上下文。
"对于大语言模型或智能体来说,筛选大量数据寻找问题然后采取行动是相当容易的,"他补充道。"所以,它确实以以前难以做到的方式帮助了防御者。以前,客户必须将问题分解成许多小领域,这可能导致潜在的漏洞。"
Q&A
Q1:智能体AI与生成式AI在安全风险方面有什么区别?
A:生成式AI主要创建内容,而智能体AI能够自主执行任务。智能体AI以非确定性方式独立行动,看起来像潜在的内部威胁,风险档案类似人类风险,需要更多关注行为分析而非传统的边界防御。
Q2:为什么说智能体AI安全需要机器速度的思维?
A:因为智能体在执行任务时人类不参与其中,如果出现安全问题,可能会比人工操作时发展得更快。因此需要确保凭证短期且范围严格限定,建立合适的自主性边界和信任级别。
Q3:自动化推理在智能体安全中起什么作用?
A:自动化推理使用数学证明来验证系统正确性,是保持智能体在安全护栏内运行的关键工具。它可以帮助定义智能体的行为边界,确保智能体不会超出预设的权限和行为范围。
好文章,需要你的鼓励
MIT研究团队开发了GraphAgents多智能体AI系统,通过五个专门智能体协同工作来寻找PFAS等化学物质的环保替代材料。该系统将科学文献转化为知识图谱,利用不同的图遍历算法发现跨学科材料设计方案。在生物医学管道应用测试中,系统成功提出了多种创新复合材料设计,消融实验证明完整系统显著优于简化版本,为材料科学发现提供了新的AI驱动范式。
今天讲的出海案例是美信科技,一家做功率电源模块和AI服务器配套供配电的深圳企业,已在泰国完成工厂选址并取得BOI(泰国投资促进委员会)免税资质,预计2026年上半年投产。
威斯康星大学麦迪逊分校研究团队发现,经过"思考训练"的AI在用户服务场景中反而表现更差。通过测试七种主流AI模型,研究发现思考能力强的AI变得更加"内向",主动披露的有用信息减少约30%,导致用户无法获得足够信息做出正确决策。研究团队开发的"信息披露提示"方法能够有效改善这一问题,为AI开发指明了新方向。