随着人工智能 (AI) 正在各行各业引发深刻变革,企业不仅在基于"传统"物理 AI 构建技术基础设施,还越来越多地采用主动式 AI。
为满足这些企业的需求,惠普企业 (HPE) 携手 Nvidia 推出了企业级 AI 解决方案,旨在加速生成式、主动式和物理 AI 模型的价值实现。
这款名为"Nvidia AI Computing by HPE"的全新企业级 AI 解决方案,从根本上为训练、调优和推理而设计,提供更优的性能、安全性和能效。这意味着各种规模的企业在部署生成式、主动式和物理 AI 模型时,都能通过这个全栈式、一体化的 AI 私有云加快价值实现。
该解决方案支持的主动式 AI 应用场景和服务包括部署德勤的 Zora AI 代理。此外,通过使用 Nvidia AI Enterprise 软件平台中的 Nvidia NIM 微服务和 Nvidia NeMo,结合 HPE Private Cloud AI,新服务可以在各种业务流程中识别、构建和部署主动式 AI 模型,加快业务价值实现。
德勤的 Zora AI for Finance 将在 HPE Private Cloud AI 上向全球客户提供服务,作为一个主动式 AI 平台,它将静态的管理报告重塑为动态、按需和交互式体验。具体应用场景包括财务报表分析、场景建模、竞争和市场分析。
此外,软件框架 CrewAI 结合 HPE Private Cloud AI,据称现在能够帮助企业快速构建主动式 AI 解决方案,通过定制化的代理驱动自动化来提升团队效率、适应性和决策能力。
新的 HPE Private Cloud AI 包含一个开发者系统,旨在为 HPE Private Cloud AI 产品组合添加"即时"AI 开发环境。该系统由 Nvidia 加速计算提供支持,包括集成控制节点、端到端 AI 软件和 32TB 集成存储。
该系统还提供统一的边缘到云数据访问。HPE Data Fabric 构成了 HPE Private Cloud AI 数据湖仓和 HPE 新统一数据层的基础。这确保了 AI 模型能在混合云环境中持续获得经过优化的高质量结构化、非结构化和流式数据。
HPE Private Cloud AI 支持快速部署 Nvidia 蓝图,可从 Nvidia 丰富的主动式和物理 AI 应用库中实现即时生产力。通过预验证的蓝图(包括多模态 PDF 数据提取蓝图和数字孪生蓝图),HPE Private Cloud AI 旨在简化复杂的 AI 工作负载,提供更高的性能和更快的价值实现。
该解决方案的其他关键特性包括通过 HPE OpsRamp 实现 AI 原生全栈可观测性,现在提供 GPU 优化功能,包括 AI 原生软件栈的可观测性,用于管理在大型 Nvidia 加速计算集群上运行的训练和推理工作负载的性能。GPU 优化功能可通过 HPE Private Cloud AI 获得,也可独立使用以扩展到大型集群。
GPU 优化功能也作为 HPE 提供的 AI 二次运维服务。该服务将 HPE Complete Care Service 与 Nvidia GPU 优化功能相结合,使 IT 运维能够改变管理、优化和主动排除混合部署中 AI 工作负载故障的方式。
好文章,需要你的鼓励
Y Combinator合伙人Ankit Gupta与Anthropic预训练负责人Nick Joseph最近进行了一次深度对话。
土耳其伊斯坦布尔Newmind AI团队开发出首个专门针对土耳其语的AI幻觉检测系统Turk-LettuceDetect,能够逐字识别AI生成内容中的虚假信息。该系统使用三种不同的AI模型,在包含17790个样本的数据集上训练,最佳模型达到72.66%的检测准确率。这项研究填补了土耳其语AI安全检测的空白,为8000万土耳其语使用者提供了更可靠的AI交互体验。
9月13日的PEC 2025 AI创新者大会暨第二届提示工程峰会上,“年度提问二:新工作时代:AI工作流由谁主导?”从企业实践到技术实现、从业务落地到战略决策,展开了一场高密度的思想碰撞与经验分享,将AI工作流背后的难题和解决路径彻底揭开。
法国研究团队开发了"推理核心"训练环境,专门培养AI的基础推理能力。该系统包含18个核心任务,涵盖逻辑推理、规划、因果分析等领域,能无限生成新题目并精确控制难度。与传统依赖固定题库的方法不同,推理核心专注于培养通用认知能力,并使用专业工具验证答案。GPT-5测试显示任务具有挑战性,为AI推理能力发展开辟新路径。