Nvidia 公司今天在台北举行的 Computex 2025 展会现场宣布了在人工智能领域的一系列进展,包括一个 AI 市场,该市场将全球开发者与 GPU 计算能力以及人形机器人连接起来。
该公司还推出了 Nvidia NVLink,这是一款全新的硅解决方案,允许合作伙伴利用 NVLink ( Nvidia 现有的高速互联技术 ) 构建半自定义的 AI 基础设施。
DGX Cloud Lepton:连接开发者与全球计算
Lepton 是一个 AI 平台,提供一个计算市场,将全球众多致力于构建当下具备主动与实体交互能力的 AI 应用的开发者,与来自 Nvidia 全球云合作伙伴网络的数以万计的 GPU 资源相连接。
Nvidia 的云合作伙伴包括 CoreWeave Inc.、 Crusoe Energy Systems LLC、 Firmus Technologies Inc.、 Foxconn GMI Cloud Solutions Pvt. Ltd.、 Lambda Labs Inc.、 Nscale GmbH、 Softbank Corp. 以及 Yotta Data Services Private Ltd.
通过 Lepton,开发者可以根据具体区域内的运营需求,按需或长期接入 GPU 计算能力。
Nvidia 创始人兼首席执行官 Jensen Huang 表示:“Nvidia DGX Cloud Lepton 将我们的全球 GPU 云服务提供商网络与 AI 开发者相连接。与我们的 NCPs 一起,我们正在构建一个行星级的 AI 工厂。”
在底层实现方面,Lepton 屏蔽了计算资源的采购、集中管理和整合,为合作伙伴提供统一体验的 GPU 计算能力。Nvidia 表示,这使得开发者和企业能够专注于实验和构建 AI 功能,并根据需要灵活获得测试、训练和部署 AI 模型所需的 GPU 工作负载。
用 GR00T 提供人形机器人计算能力
Nvidia 今天宣布了其用于人形机器人基础模型 Isaac GR00T N1.5 的首个更新。
物理 AI 是将 AI 与现实世界的物理交互相结合,使机器能够感知、理解并对环境作出反应。GR00T 这类基础模型充当机器人的 AI 大脑,使机器人能够感知世界并进行推理,从而具备类似人类的行为,如识别物体、在环境中移动以及抓取物品完成任务。
GR00T N1.5 代表了新一代的升级,相较上一代能够更好地适应新环境和工作空间配置。Nvidia 表示,该模型在处理诸如对物料进行分类和物品归置等常见的物料搬运与制造任务时,其成功率有了显著提升。该模型可部署在公司今年晚些时候推出的 Jetson Thor 机器人电脑上。
GR00T N 模型的早期采用者包括 AeiRobot、 Foxlink Lightweel 和 NEURa Robotics 等公司。
训练机器人需要大量数据,而其中大部分数据需由人类执行者提供,而人力供应终归有限。这些数据被称为“轨迹”,即机器人为抓取、处理和移动物体以完成各类任务而必须执行的运动路径。
鉴于人类每天能够提供数据的时间有限,Nvidia 开发了 GR00T-Dreams,这是一种生成机器人在新环境下执行新任务的视频的方法。GR00T-Dreams 能够以单张图像作为输入,生成视频以供机器人学习如何执行新任务。
在 AI 领域,这是一种为机器人 AI 训练生产合成数据的方法,能够提供大量额外的数据供模型消化。GR00T-Dreams 可与 Isaac GR00T-Mimic 原型工具形成互补,该工具能够从少量人类演示中生成额外的合成运动数据。Mimic 利用 Omniverse 和 Cosmos 增强现有数据,而 GR00T-Dreams 则生成全新的数据。
NVLink Fusion 为构建更大规模 AI 工厂提供路径
Nvidia 今天宣布了 NVLink Fusion,称其为一款在行业验证规模基础上定制的中央处理单元和加速器。
Huang 表示:“正在发生一场结构性变革:数十年来,数据中心首次必须进行根本性的重构 —— AI 正在融入每一个计算平台。”
Fusion 旨在为云服务提供商提供一种扩展至数百万 GPU 的解决方案,可采用任何应用专用集成电路,在 Nvidia 的机架级系统和 Nvidia 端到端网络平台内实现扩展,该平台的吞吐量可达到 800 gigabits/s。
Nvidia 表示,借助 NVLink Fusion, Fujitsu Ltd. 和 Qualcomm Technologies Inc. 的 CPU 也可以与 Nvidia GPU 集成,共同构建高性能的 Nvidia AI 工厂。
与 Nvidia 合作、在 Nvidia NVLink 上部署定制 AI 计算的 AI 芯片制造商合作伙伴包括 MediaTek Inc.、 Marvell Technology Inc.、 Alchip Technologies Ltd.、 Astera Labs Inc.、 Synopsys Inc. 以及 Cadence Design Systems Inc.
Cadence 的 Silicon Solutions Group 高级副总裁兼总经理 Boyd Phelps 表示:“高性能计算和 AI 工作负载的需求独特且在迅速演变,而构建最先进定制 AI 系统的超大规模数据中心正依赖 Cadence 从数据中心到边缘提供支持技术。”
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。