长期以来,企业依赖服务账户、API密钥、OAuth令牌等各类非人类身份凭证,使不同服务能够在数字环境中相互协作。在现代云架构和持续开发流程中,这类身份的数量始终远超人类用户,但针对它们的治理机制却很少能反映其实际规模与权限级别。
美国国家标准与技术研究院(NIST)近期发布的一项请求颇具说明意义。2026年伊始,该机构就面向公众征询意见,探讨组织应如何安全地开发和部署AI智能体系统。这一公告恰好发布于众多企业开始将智能体AI落地应用的关键节点——这类系统不仅能生成内容,还能理解指令、自主判断,并在应用程序和基础设施之间执行各类操作。
智能体系统已逐步进入生产环境,而本应为其提供约束边界的安全与治理模型仍处于构建阶段。在许多情况下,安全控制措施是在系统已获授权使用之后才被添加进来的,这在智能体AI的组织落地过程中制造了本可避免却极为严重的风险。
非人类身份权限的悄然扩张
传统身份管理体系围绕人类用户而构建,涵盖结构化的入职流程、明确的角色定义、定期审查机制,以及清晰的问责制度,用于全周期管理员工的访问权限与职责。
然而,非人类身份(NHI)往往被这些治理流程所忽视。它们静默运行于系统后台,通常在管理活动中被自动创建以维持系统运转,且往往被赋予长期有效、权限较高的凭证,成为攻击者极具吸引力的目标。与人类身份管理类似,针对NHI同样存在最佳实践,例如最小权限分配和高频凭证轮换,这些措施有助于提升NHI的安全性。对NHI的创建、日常使用和持续维护实施合理的治理流程,有助于确保自动化操作的安全性,并实现更有效的管控。
过去,当企业内部的自动化程度有限且范围受控时,这一治理缺口或许影响尚小。但如今,随着AI智能体的实例化部署、流程执行以及跨系统交互的展开,在无需人工介入的情况下协调工作流并推进任务,这一缺口的分量已大幅增加。
NHI行动时,薄弱管控将成倍放大风险
智能体系统的设计初衷是采取行动、检索数据、与内部系统交互,并在所授权限范围内推动工作流的推进。德勤近期的一份报告显示,在受访的3325位领导者中,近四分之三计划在两年内部署智能体AI。随着这些系统跨应用程序和数据集展开交互,其权限范围的合理性变得愈发关键。
当权限过于宽泛或治理不善时,AI智能体将以机器的速度放大这些缺陷。敏感数据的暴露范围可能超出预期,工作流可能突破原有的设计边界,而微小的配置疏漏也可能引发更大的运营风险连锁反应。问题不仅仅在于遭受入侵的风险,更在于非预期结果可能发生的规模。
保障AI智能体安全所需的措施在概念上并不陌生。适用于人类用户的诸多原则——最小权限、明确所有权、定期审查——同样直接适用于NHI。变化之处在于,当这些原则需要延伸至持续运行且大规模运作的非人类行为者时,所需的一致性与协调性将大幅提升。
在实践层面,这包括:为每个智能体分配独立身份、明确定义其操作范围与权限边界;定期审查并回收不再使用的凭证;建立对智能体活动的实时可见性与告警机制;以及将访问管理整合至智能体的开发与部署流程中。
对于安全领导者而言,这不是要发明全新的框架,而是要将现有的治理规范延伸至一类持续大规模运作的行为主体。身份定义了智能体被允许执行的操作范围,因此严格的权限管理和对这些身份的持续可见性,是在自动化扩张过程中维持管控的核心所在。
安全保障不应拖慢业务速度
企业引入智能体系统的目的在于简化运营、减少人工投入、加速决策过程。针对智能体的身份与访问管理策略,目标并非减缓这一势头,而是确保扩张以受控、可持续的方式推进,避免同步扩大风险敞口。
当智能体经过安全开发、配备清晰界定的权限边界,并与其所访问的数据一同纳入监控时,企业便能建立起扩大部署规模的信心,以更稳健的方式推进自动化创新。风险并不会消失,但它将变得更加可见、可管理,而非随时间悄然积聚,直至演变为难以遏制的重大威胁。
NIST的意见征询反映出业界在智能体系统标准化方面仍处于探索阶段,但企业无法等待最终框架落地后再行动。智能体AI已深入核心业务流程。其规模化落地的成败,将取决于治理能否同步演进——确保智能体在明确的身份边界内运行,并在每个阶段都将数据保护有意识地融入其中。
Q&A
Q1:非人类身份(NHI)是什么?为什么它对企业安全很重要?
A:非人类身份是指服务账户、API密钥、OAuth令牌等允许系统之间相互协作的凭证。在现代云架构中,这类身份的数量远超人类用户,却往往被企业的身份治理体系所忽视。它们通常被赋予长期有效且权限较高的凭证,一旦被攻击者利用,将成为重大安全隐患。
Q2:AI智能体系统在权限管理不善时会带来哪些具体风险?
A:当AI智能体的权限过于宽泛或缺乏治理时,其将以机器速度放大安全缺陷。具体风险包括:敏感数据暴露范围超出预期、工作流程突破原有设计边界、细微的配置失误引发大规模运营风险连锁反应。由于智能体持续运行且自动化程度高,一旦出现问题,影响范围将远超人工操作失误。
Q3:企业应该如何安全地管理和部署AI智能体?
A:企业可参考适用于人类用户的身份管理原则,将其延伸至非人类身份管理中,具体措施包括:为每个智能体分配独立身份并明确权限边界,定期审查和回收闲置凭证,建立对智能体活动的实时监控与告警机制,并将访问管理整合至智能体的开发与部署流程。核心目标是在不影响业务速度的前提下,实现对智能体权限的精细化、可视化管控。
好文章,需要你的鼓励
Converge Bio完成550万美元种子轮融资,由TLV Partners领投。该公司专为生物科技和制药行业打造LLM应用平台,提供数据增强、模型微调及可解释性分析等功能,帮助企业将通用生物基础模型转化为可实际落地的研发工具。以抗体研究为例,平台可将抗体LLM精调至氨基酸级别的结合亲和力预测,并生成优化序列。公司计划用于扩充团队、拓展客户,并发布抗体设计科研论文。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
ChatGPT高级语音模式的创造者Alexis Conneau离开OpenAI后,创办了音频AI初创公司WaveForms AI,并获得由a16z领投的4000万美元种子轮融资。该公司专注于训练自有音频大语言模型,计划于2025年推出与OpenAI、谷歌竞争的AI音频产品。Conneau深受电影《Her》启发,致力于开发具备情感感知能力的语音AI,同时警惕AI伴侣化带来的社会问题,强调技术应服务于人而非取代人际关系。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。