AI 推理模型和智能代理正在改变各个行业,但要充分发挥其潜力并实现规模化,需要海量的计算能力和优化的软件支持。"推理"过程涉及多个模型,会生成大量额外的 Token,需要具备高速通信、内存和计算能力相结合的基础设施,以确保实时、高质量的结果。
为满足这一需求,CoreWeave 推出了基于 NVIDIA GB200 NVL72 的实例,成为首个将 NVIDIA Blackwell 平台推向市场的云服务提供商。
借助机架级 NVIDIA NVLink 连接的 72 个 NVIDIA Blackwell GPU 和 36 个 NVIDIA Grace CPU,以及可通过 NVIDIA Quantum-2 InfiniBand 网络扩展至 110,000 个 GPU,这些实例提供了构建和部署下一代 AI 推理模型和智能代理所需的规模和性能。
CoreWeave 上的 NVIDIA GB200 NVL72
NVIDIA GB200 NVL72 是一个液冷的机架级解决方案,具有 72 GPU NVLink 域,使这 72 个 GPU 能够作为一个巨大的 GPU 协同工作。
NVIDIA Blackwell 具有多项技术突破,可加速推理 Token 的生成,提升性能的同时降低服务成本。例如,第五代 NVLink 在单个 72 GPU NVLink 域中提供 130TB/s 的 GPU 带宽,第二代 Transformer 引擎支持 FP4,在保持高精度的同时实现更快的 AI 性能。
CoreWeave 的托管云服务组合专为 Blackwell 打造。CoreWeave Kubernetes Service 通过公开 NVLink 域 ID 优化工作负载编排,确保在同一机架内高效调度。基于 Kubernetes 的 Slurm (SUNK) 支持拓扑块插件,实现跨 GB200 NVL72 机架的智能工作负载分配。此外,CoreWeave 的可观察性平台提供 NVLink 性能、GPU 利用率和温度的实时洞察。
CoreWeave 的 GB200 NVL72 实例配备 NVIDIA Quantum-2 InfiniBand 网络,为最多 110,000 个 GPU 的集群提供每 GPU 400Gb/s 的带宽。NVIDIA BlueField-3 DPU 还为这些实例提供加速的多租户云网络、高性能数据访问和 GPU 计算弹性。
面向企业 AI 的全栈加速计算平台
NVIDIA 的全栈 AI 平台将尖端软件与基于 Blackwell 的基础设施相结合,帮助企业构建快速、准确且可扩展的 AI 智能代理。
NVIDIA Blueprints 提供预定义、可定制、即可部署的参考工作流,帮助开发人员创建实际应用。NVIDIA NIM 是一组易于使用的微服务,用于安全、可靠地部署高性能 AI 推理模型。NVIDIA NeMo 包含用于训练、定制和持续改进现代企业用例 AI 模型的工具。企业可以使用 NVIDIA Blueprints、NIM 和 NeMo 为其专用 AI 智能代理构建和微调模型。
这些软件组件都是 NVIDIA AI Enterprise 软件平台的一部分,是大规模部署智能代理 AI 的关键推动力,可以在 CoreWeave 上轻松部署。
将下一代 AI 引入云端
NVIDIA GB200 NVL72 实例在 CoreWeave 上的全面可用,标志着两家公司在将最新加速计算解决方案引入云端方面合作的最新进展。随着这些实例的推出,企业现在可以获得支持下一波 AI 推理模型和智能代理所需的规模和性能。
客户现在可以通过 CoreWeave Kubernetes Service 在 US-WEST-01 区域使用 gb200-4x 实例 ID 开始配置 GB200 NVL72 实例。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。