随着人工智能 (AI) 正在各行各业引发深刻变革,企业不仅在基于"传统"物理 AI 构建技术基础设施,还越来越多地采用主动式 AI。
为满足这些企业的需求,惠普企业 (HPE) 携手 Nvidia 推出了企业级 AI 解决方案,旨在加速生成式、主动式和物理 AI 模型的价值实现。
这款名为"Nvidia AI Computing by HPE"的全新企业级 AI 解决方案,从根本上为训练、调优和推理而设计,提供更优的性能、安全性和能效。这意味着各种规模的企业在部署生成式、主动式和物理 AI 模型时,都能通过这个全栈式、一体化的 AI 私有云加快价值实现。
该解决方案支持的主动式 AI 应用场景和服务包括部署德勤的 Zora AI 代理。此外,通过使用 Nvidia AI Enterprise 软件平台中的 Nvidia NIM 微服务和 Nvidia NeMo,结合 HPE Private Cloud AI,新服务可以在各种业务流程中识别、构建和部署主动式 AI 模型,加快业务价值实现。
德勤的 Zora AI for Finance 将在 HPE Private Cloud AI 上向全球客户提供服务,作为一个主动式 AI 平台,它将静态的管理报告重塑为动态、按需和交互式体验。具体应用场景包括财务报表分析、场景建模、竞争和市场分析。
此外,软件框架 CrewAI 结合 HPE Private Cloud AI,据称现在能够帮助企业快速构建主动式 AI 解决方案,通过定制化的代理驱动自动化来提升团队效率、适应性和决策能力。
新的 HPE Private Cloud AI 包含一个开发者系统,旨在为 HPE Private Cloud AI 产品组合添加"即时"AI 开发环境。该系统由 Nvidia 加速计算提供支持,包括集成控制节点、端到端 AI 软件和 32TB 集成存储。
该系统还提供统一的边缘到云数据访问。HPE Data Fabric 构成了 HPE Private Cloud AI 数据湖仓和 HPE 新统一数据层的基础。这确保了 AI 模型能在混合云环境中持续获得经过优化的高质量结构化、非结构化和流式数据。
HPE Private Cloud AI 支持快速部署 Nvidia 蓝图,可从 Nvidia 丰富的主动式和物理 AI 应用库中实现即时生产力。通过预验证的蓝图(包括多模态 PDF 数据提取蓝图和数字孪生蓝图),HPE Private Cloud AI 旨在简化复杂的 AI 工作负载,提供更高的性能和更快的价值实现。
该解决方案的其他关键特性包括通过 HPE OpsRamp 实现 AI 原生全栈可观测性,现在提供 GPU 优化功能,包括 AI 原生软件栈的可观测性,用于管理在大型 Nvidia 加速计算集群上运行的训练和推理工作负载的性能。GPU 优化功能可通过 HPE Private Cloud AI 获得,也可独立使用以扩展到大型集群。
GPU 优化功能也作为 HPE 提供的 AI 二次运维服务。该服务将 HPE Complete Care Service 与 Nvidia GPU 优化功能相结合,使 IT 运维能够改变管理、优化和主动排除混合部署中 AI 工作负载故障的方式。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。