Nvidia 今天为其 Nvidia NeMo Guardrails 软件工具新增了用于 AI 防护的 Nvidia 推理微服务 (NIMs)。这些新的微服务旨在帮助企业提高智能代理 AI 应用的准确性、安全性和控制力,解决了 IT 领导者在采用该技术时的主要顾虑。
"目前已有十分之一的组织正在使用 AI 代理,超过 80% 的组织计划在未来三年内采用 AI 代理," Nvidia 企业 AI 模型、软件和服务副总裁 Kari Briski 在周三的新闻发布会上表示。"这意味着你不仅要构建能准确完成任务的代理,还必须评估 AI 代理是否满足安全性、数据隐私和治理要求,这可能成为部署的主要障碍。"
Briski 解释说,除了信任、安全和合规性之外,成功部署 AI 代理还需要确保其性能。它们必须在保持快速响应的同时,维持与终端用户和其他 AI 代理交互时的准确性。为此,Nvidia 今天推出了三个新的 NeMo Guardrails NIMs,用于内容安全、话题控制和越狱检测。
内容安全 NIM 旨在防止 AI 产生偏见或有害输出,确保生成式 AI 的响应符合道德标准。它基于 Nvidia 的开源 Aegis 内容安全数据集进行训练,该数据集包含 35,000 个经人工标注的 AI 安全标记样本。Aegis 用于教导 AI 如何审核其他 AI 模型生成的潜在有害内容。
话题控制 NIM 使 AI 代理保持专注于已批准的话题,防止其偏离主题或涉及不当内容。例如,它可以防止 AI 代理讨论竞争对手的产品。
越狱检测 NIM 通过防止试图绕过智能代理 AI 安全防护的"越狱"行为,帮助在"对抗场景"中维护 AI 的完整性。它基于 Nvidia Garak 构建,这是一个开源的漏洞扫描工具包,使用 17,000 个已知越狱案例进行训练。
通过防护实现更好的治理
NeMo Guardrails 是 NeMo 平台的一部分,这是一个用于定义、编排和执行 AI 代理及其他生成式 AI 应用模型策略的可扩展平台。
"防护机制通过对 AI 模型、代理和系统执行规范,帮助维护 AI 运营的可信度和可靠性,"Briski 说。"它有助于保持 AI 代理的正常运行。"
例如,这些新的微服务可以帮助汽车制造商创建用于车辆操作的 AI 代理,协助用户控制空调、调节座椅、娱乐信息、导航等功能。制造商可以使用这些微服务来指定禁止的话题,如其他汽车品牌或提供背书和意见。
NeMo Guardrails 利用小型语言模型 (SLMs),其延迟低于大语言模型,这意味着它们可以在资源受限或分布式环境中高效运行。Briski 指出,这些模型非常适合在医疗保健、汽车和制造业等行业扩展 AI 应用。一些 CIO 已经开始转向 SLMs 寻求专用解决方案,将其作为更通用的大语言模型的替代方案。
虽然可以使用默认配置的 NeMo Guardrails,但 Briski 表示其真正的力量在于定制和扩展防护功能。
"使用多个可定制的防护机制很重要,因为没有一种方案能适用于所有场景,"她说。"不同用例、品牌、公司准则,甚至基于行业和地理位置的不同监管要求都有各自的政策和要求。开发人员希望能够为其特定需求和不同智能代理 AI 系统的各种要求选择合适的防护机制。"
Briski 表示,IT 部门现在将成为"代理的人力资源部门",这正是新的微服务发挥作用的地方,允许开发人员应用多个轻量级的专用模型作为防护措施,以填补仅依靠更通用的全局策略和保护时可能出现的空白。
这些新的微服务,以及用于防护编排的 NeMo Guardrails 和 Nvidia Garak 工具包,现在都已向开发人员和企业开放使用。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。