SailPoint 正在通过引入自主智能(agentic AI)能力,推进其身份安全平台的发展,并计划在今年晚些时候推出新工具,帮助各组织管理和保护在其环境中部署越来越多的 AI 代理。
这家在东盟监管行业中拥有较强影响力的身份安全供应商,将 AI 代理的崛起视为治理领域的全新前沿。
SailPoint 东盟区负责人 Eric Kong 在最近接受 Computer Weekly 采访时表示: “AI 正在保护您的企业,但是谁在保护 AI?这是一个新兴问题,未来两年内将会呈爆炸式增长,届时这些代理及其访问权限将无人监管。”
SailPoint 自 2017 年起便开始将 AI 与机器学习技术整合到其平台中,以自动化角色建模和简化身份流程等任务。近期,该公司利用 Amazon Bedrock 推出的生成式 AI(GenAI),自动补全权限描述,从而解决访问认证中常见的痛点。
在此基础上,SailPoint 最近推出了 Harbor Pilot——一项基于自主 AI 的身份治理和管理服务。“我们已经在该产品中推出了两个代理,” Kong 说道。“其中一个代理负责文档处理。通过对话式提示,您可以询问如何执行某些操作,我们会将相关文档整合呈现出来。”
“第二个是工作流代理,”他补充道。“对于一些简单任务,您可以说‘我想实现这些目标。你能为我构建一个工作流吗?’我们的代理将生成一个工作流模板,帮助您理清复杂流程。”
Kong 表示,初期推出的代理旨在协助身份专家,目前还未达到完全自主运行的程度。“构建和部署工作流完全由您掌控,系统不会自动部署,”他补充道。但他也指出,随着自主 AI 技术的快速发展,“我们才刚刚起步,这一趋势将会加速。”
Kong 认为更意义重大的发展,是 SailPoint 即将推出的针对非 SailPoint AI 代理治理的能力。该能力预计将在今年下半年推出,将把 AI 代理当作企业中的另一种身份类型来处理。
Kong 表示:“我们将致力于为企业客户提供解决方案,帮助他们治理、管理和保护这些代理。我们对待 AI 代理的方式,与处理人类身份、机器身份或第三方身份并无二致。”
他指出,缺乏监管的 AI 代理存在风险,包括无法清楚了解代理的所有权和访问权限,以及可能获得过多权限。“我们的研究表明,82% 的企业已经在部署代理,但只有 44% 的企业考虑过如何对其制定治理政策,” Kong 说。
“如果你没有考虑这一问题,那么就无法掌握这些代理的所有权及其可以访问的资源,很可能会出现大量代理获得潜在过多权限而无人察觉,甚至因 AI 的过度配置而导致风险。”
SailPoint 旨在为企业提供工具,以便发现这些代理,了解它们的访问权限,将其与所有者关联,并应用既定的身份治理原则,例如访问审查和最小权限原则。
随着 AI 代理逐渐普及,Kong 相信其复杂性和规模将使单靠人工监管变得不可能。“能够将 AI 代理及其身份视为组织身份体系的一部分将至关重要,” Kong 指出。
在东盟地区,Kong 表示 SailPoint 在新加坡、马来西亚、印尼、泰国和菲律宾等市场的需求十分强劲。虽然未透露具体增长数字,但 Kong 表示,基于客户需求,公司计划在该地区扩大销售和职能团队。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。