Nvidia 发布 NeMo 微服务 助力简化 AI 代理开发

英伟达发布 NeMo 微服务,帮助企业构建自主学习、持续优化的 AI 代理,实现数据驱动的业务升级。

Nvidia 宣布其 NeMo 微服务现已全面发布,为企业提供工具,以构建能够与业务系统集成且通过数据交互持续改进的 AI 代理。此项微服务的推出正值各组织迫切寻求能够为重大科技投资带来可量化回报的具体 AI 实施策略之时。

企业 AI 面临数据整合挑战 企业在采用 AI 技术时面临一大关键挑战:构建能够通过不断学习业务数据来保持准确性与实用性的系统。NeMo 微服务通过打造 Nvidia 所描述的 “数据飞轮” (data flywheel)来应对这一挑战,使 AI 系统能够通过持续接触企业信息及用户交互保持相关性。

该全新工具包包含五项核心微服务:

NeMo Customizer 负责对大语言模型进行微调,以实现更高的训练吞吐量。

NeMo Evaluator 提供针对定制基准的简化 AI 模型评估。

NeMo Guardrails 实施安全控制,确保合规并输出适当的响应。

NeMo Retriever 实现跨企业系统的信息访问。

NeMo Curator 处理与整理用于模型训练及改进的数据。

这些组件协同工作,打造出能够作为数字同事独立执行任务、仅需极少人工监管的 AI 代理。与传统的聊天机器人不同,这些代理能够自主采取行动并基于企业数据做出决策,它们可连接现有系统,以访问信息存储在组织内部的最新数据。

技术架构支持持续改进 NeMo 与 Nvidia 推理微服务(命名为 NIMs)之间的区别在于其互补功能。正如 Nvidia 企业级生成式 AI 软件部高级总监 Joey Conway 所言,“NIMs 用于推理部署——运行模型、问题输入、答复输出,而 NeMo 则专注于如何改进该模型:数据准备、训练技术、评估。”当 NeMo 完成了模型的优化后,可通过 NIM 部署到生产环境中。

早期实践已展示了显著的商业效果。电信软件供应商 Amdocs 利用 NeMo 微服务开发了三个专用代理;AT&T 与 Arize 及 Quantiphi 合作,构建了一个每周更新近 10,000 份文档的代理;而 Cisco 的 Outshift 部门与 Galileo 合作,创建了一款响应速度快于同类工具的编程助手。

这些微服务以 Docker 容器形式运行,并通过 Kubernetes 进行编排,从而实现可在多种计算环境中的部署。它们支持包括 Meta 的 Llama、Microsoft 的 Phi 系列、Google 的 Gemma 及 Mistral 在内的多种 AI 模型,Nvidia 自家的侧重推理能力的 Llama Nemotron Ultra 亦与该系统兼容。

这一发布进入了一个竞争激烈的市场,企业在 AI 开发选择上众多,包括 Amazon 的 Bedrock、Microsoft 的 Azure AI Foundry、Google 的 Vertex AI、Mistral AI、Cohere 以及 Meta 的 Llama 技术栈。Nvidia 则通过与自身硬件生态系统的深度整合以及通过 AI Enterprise 软件平台提供的企业级支持,在众多方案中脱颖而出。

Nvidia NeMo 与企业 AI 采纳 对于技术团队而言,这些微服务提供了降低实施复杂性的基础设施。容器化方法使得在内部部署或云环境中都能利用企业级的安全性及稳定性特性。这种灵活性有效应对了 AI 实施过程中经常碰到的数据主权与监管合规性问题。

在评估这些工具时,组织应考虑现有 GPU 基础设施投资、数据治理需求以及与现有系统的整合需求。对于在业务数据不断变化中仍能保持准确性的 AI 代理的需求,将推动支持持续学习周期的平台的广泛应用。

这种微服务方法反映了整个行业向模块化 AI 系统转变的趋势,这类系统能够为特定业务领域量身定制,而无需重构基础组件。对技术决策者而言,此次发布代表了企业 AI 工具向成熟迈进的又一步,有效缩小了前沿研究能力与实际业务运营之间的差距。

随着企业从试验阶段迈向生产级 AI 系统,能够简化持续改进模型构建工具的重要性日益凸显。“数据飞轮”概念体现了一种架构模式,即通过不断接触组织内部信息,使 AI 系统始终与业务需求保持一致。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

04/27

15:10

分享

点赞

邮件订阅