在HPE Discover 2025大会上,AI智能体再次成为企业界关注焦点。今年大会的主题围绕将自动化工作流机器人部署到各个可能的应用场景,无论智能体AI技术在所有用例中是否已经成熟。
虽然硬件仍是重点,但HPE首席执行官Antonio Neri在拉斯维加斯主题演讲中最引人注目的是GreenLake Intelligence——一个"全新的智能体AI框架"。据公司介绍,这意味着在几乎所有可行的细分领域都将加入智能体AI功能。
HPE解释称,GreenLake Intelligence框架旨在作为跨HPE各系统的智能体AI统一接入点,全部通过中央HPE Greenlake混合云平台进行管理。
在主题演讲和相关发布会中,HPE给出了多个应用示例。在网络领域,HP的Aruba产品将整合"新型智能体网格技术",配备"多模态对话式网络助手",能够对网络问题进行根因分析,并使用各种推理智能体来确定人类需要如何修复发现的问题。
据HPE介绍,智能体还将应用于OpsRamp、存储管理等其他领域,用于自动化成本运营、可持续性和业务服务等工作。
对于那些希望HPE混合堆栈中智能体AI的加入意味着智能体最终能够在无人监督下采取行动的人来说,答案是否定的。尽管多年来一直承诺AI很快就能接管所有这些基础工作,但我们仍未完全达到那个水平。
HPE在本周活动的所有文献中都将GreenLake Intelligence智能体描述为"自主的",但他们也解释说,人类仍将参与其中做最终决策。换句话说,是自主但顺从的。
当被问及AI智能体的真正自主性时,HPE高级副总裁兼云和OpsRamp总经理Varma Kunaparaju告诉记者,这些事情需要时间,但这不是推迟智能体未来的理由。
"一些定义明确的用例是自主的,"Kunaparaju解释道。修复网络错误或解决存储问题——基本上任何存在于严格控制的单一域中的事情都已经实现了。除此之外,情况就变得模糊了。
"但如果你广泛应用可能的根本原因进行自我修复,我会说这是一个爬行-步行-奔跑的旅程,"这位OpsRamp负责人说。"我们仍在爬行并做一点步行。"
Kunaparaju告诉我们,到达那里不会是瞬间的,但他认为明年将在AI智能体自主性方面取得相当大的进步——毕竟,一年前世界几乎还没有谈论AI智能体。
"让整个企业自主运行是一个旅程,"Kunaparaju说。"系统需要演进,流程需要演进,实施复杂性需要达到这些系统能够集成以充分实现AI驱动效率的程度。"
Kunaparaju表示,软件会达到那里,但硬件已经准备好支持未来的AI效率——换句话说,构建它,你梦想的AI迟早会到来。
新硬件全面服务AI需求
HPE本质上是一家硬件公司,本周的活动也发布了新的物理系统。不过,新系统让位于AI,所有硬件发布都是为了推进人工智能产品。
HPE发布了支持八个Nvidia Blackwell GPU的新型HPE Compute Cray XD690系统,以及配备Blackwell的新型ProLiant系统,这些都是HPE扩展Nvidia AI工厂(Nvidia提供的用于在公司数据上训练AI的一体化软件和硬件堆栈)联盟的一部分。
HPE和Nvidia自去年以来一直合作在HPE硬件上提供Nvidia AI工厂,今年只是延续了这一合作。2024年,来自HPE的Nvidia AI工厂仅面向使用HPE私有AI云的企业客户,现在增加了面向服务提供商和大规模运营公司的"可组合"服务层,以及面向政府和其他有增强数据安全和主权要求客户的"主权"层。
还有其他小的发布,但它们甚至不如新的Nvidia驱动、AI优先的硬件值得正式记录。如果说去年Discover大会的主题是HPE登上Nvidia的炒作列车,那么今年只是在全力推动世界拥抱智能体AI之前的一个短暂停留,无论准备好与否。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。