NVIDIA与ServiceNow携手推出面向企业的自主智能体

NVIDIA与ServiceNow在ServiceNow Knowledge 2026大会上宣布深化合作,共同推出专为企业设计的自主AI智能体解决方案。双方合作涵盖全栈技术,结合NVIDIA加速计算、开源模型与安全执行框架OpenShell,以及ServiceNow的工作流引擎与AI治理平台。新推出的Project Arc是一款面向知识工作者的长期运行桌面智能体,支持多步骤复杂任务处理,同时内置治理与审计能力,兼顾企业级安全需求。

企业AI已经学会了生成,也学会了推理。如今,企业正在追问下一个关键问题:AI应该如何行动?

早期智能体系统已经展示了其潜力,从简单的提示词处理,逐步迈向更复杂的任务执行。下一步,则是将这些能力引入企业环境,让智能体能够在真实工作流程中具备上下文理解、可控性与一致性。

在ServiceNow Knowledge 2026大会上,NVIDIA创始人兼CEO黄仁勋与ServiceNow董事长兼CEO比尔·麦克德莫特共同出席开幕主题演讲,探讨企业AI的下一发展阶段。

两家公司正在扩大全栈层面的合作,推出专业化的自主智能体,这些智能体安全易用,依托NVIDIA加速计算、开放模型、特定领域技能及安全智能体执行软件,同时结合ServiceNow Action Fabric提供的企业工作流上下文,以及ServiceNow AI Control Tower提供的治理能力。

Project Arc:面向知识工作者的自主桌面智能体

ServiceNow正式推出Project Arc,这是一款专为知识工作者(包括开发人员、IT团队和管理员)设计的长期运行、自我演化的自主桌面智能体。

与独立运行的AI智能体不同,Project Arc通过ServiceNow Action Fabric与ServiceNow AI平台原生连接,为自主桌面智能体的每一个操作提供治理能力、可审计性和工作流智能支持。它能够访问本地文件系统、终端及已安装的应用程序,完成传统自动化无法处理的复杂多步骤任务,同时满足企业大规模部署AI所需的管控要求。

该方案基于企业部署长期运行自主智能体所需的三大核心要素设计:可定制的开放模型与特定领域技能、保护敏感数据与系统安全的能力,以及能够实现高效Token经济的AI工厂基础设施。

安全执行:NVIDIA OpenShell

将这种程度的自主能力引入企业,从一开始就需要有完善的管控机制。

Project Arc采用NVIDIA OpenShell,这是一款用于在沙箱、策略受控环境中开发和部署自主智能体的开源安全运行时。ServiceNow正在基于OpenShell进行构建并贡献代码,共同推进安全企业级智能体执行的通用基础。借助OpenShell,企业可以定义智能体的可见范围、可调用的工具,以及每项操作的隔离方式。

ServiceNow AI平台执行副总裁兼总经理乔恩·西格勒表示:"Project Arc代表了我们与NVIDIA持续合作的下一步,将自主执行能力延伸至桌面端。通过将OpenShell的运行时层与ServiceNow AI Control Tower结合,并由ServiceNow Action Fabric驱动,我们正在为企业AI提供所需的治理与安全保障。"

开放生态:可定制的模型与技能

要真正发挥价值,企业AI系统必须具备适应性。NVIDIA与ServiceNow正在构建一个开放生态系统,使各组织能够根据自身领域和数据定制模型与应用。

NVIDIA智能体技能使ServiceNow AI Specialists等专业智能体能够在企业工作流中提供有针对性的能力。例如,面向构建专业深度研究智能体的NVIDIA AI-Q Blueprint,使ServiceNow AI Specialists能够收集上下文、整合信息,并在各业务职能中支持更复杂的决策。

此外,包含NVIDIA Nemotron开放模型的NVIDIA Agent Toolkit,为开发定制化AI应用提供了灵活的构建模块和专业技能。为验证这些系统在实际场景中的可靠性,两家公司还在共同推进NOWAI-Bench——一个与NVIDIA NeMo Gym库集成的企业AI智能体开放基准测试套件。NOWAI-Bench包含EnterpriseOps-Gym,这是业界难度最高的企业智能体基准之一,Nemotron 3 Super目前在开源模型中位居第一。

与通用基准不同,这些评估专注于多步骤工作流场景,而这正是企业AI系统最容易遭遇挑战的环节,有助于团队构建在生产环境中稳定运行的智能体。

高效Token经济:NVIDIA AI工厂

随着AI智能体实现长期运行、全时在线,将其扩展至数百万工作流,不仅需要强大的能力,更需要高效率,Token经济因此成为企业AI的核心议题。

NVIDIA AI工厂专为生产级AI提供最低成本、最高效率的Token经济而构建。NVIDIA Blackwell平台每瓦特Token输出量是NVIDIA Hopper的50倍以上,每百万Token成本降低近35倍。对于在数百万工作流中运行智能体的企业而言,这种效率将直接决定AI从试点走向大规模生产的速度。

ServiceNow AI Control Tower与NVIDIA Enterprise AI Factory验证设计相集成,将治理能力和可观测性延伸至大规模AI工作负载。借助新增的智能体可观测能力,企业可以实时监控行为,并在从部署到优化的完整生命周期内管理AI系统。

AI正在成为工作完成的全新方式。当前的变化在于,大规模部署AI所需的核心要素——强大的智能体、内置的安全护栏以及经过验证的性能——正在加速汇聚。

率先行动的企业,将是那些为智能体提供行动基础设施、决策上下文以及行为问责治理机制的企业。NVIDIA与ServiceNow正在携手将这一愿景变为全球企业的现实。

Q&A

Q1:Project Arc是什么?它有哪些核心能力?

A:Project Arc是ServiceNow推出的一款长期运行、自我演化的自主桌面智能体,专为开发人员、IT团队和管理员等知识工作者设计。它通过ServiceNow Action Fabric与ServiceNow AI平台原生连接,能够访问本地文件系统、终端及已安装的应用程序,完成传统自动化无法处理的复杂多步骤任务,同时提供治理、可审计性和工作流智能支持,满足企业大规模部署AI的管控需求。

Q2:NVIDIA OpenShell是什么?它如何保障智能体的安全性?

A:NVIDIA OpenShell是一款开源安全运行时,专为在沙箱、策略受控环境中开发和部署自主智能体而设计。借助OpenShell,企业可以精确定义智能体的可见范围、可调用的工具类型,以及每项操作的隔离边界,从而有效防止智能体在执行任务时暴露敏感数据或系统。ServiceNow正基于OpenShell进行构建并贡献代码,共同推动企业级智能体安全执行标准的形成。

Q3:NVIDIA Blackwell平台在Token经济方面有哪些优势?

A:NVIDIA Blackwell平台在Token经济效率上表现突出,每瓦特Token输出量是上一代NVIDIA Hopper平台的50倍以上,每百万Token的成本降低近35倍。对于需要在数百万工作流中持续运行AI智能体的企业来说,这种效率的大幅提升,将直接决定AI能否快速从小规模试点扩展到大规模生产部署。

来源:NVIDIA

0赞

好文章,需要你的鼓励

2026

05/08

13:29

分享

点赞

邮件订阅