Nvidia 公司没有放弃中国市场,而是竞速开发一种新的低功耗人工智能芯片,该芯片售价低于现已受限的 H20 型号。
该新型图形处理单元将被视为 Nvidia 最新一代 Blackwell 处理器的一部分,但其性能将明显逊色于面向西方市场的变体。据路透社今天首次报道,该芯片定价大约在 6,500 美元到 8,000 美元之间,远低于基于旧架构的 H20 芯片组的 12,000 美元定价。
今年 4 月,Nvidia 遭遇了新的出口限制,禁止向中国出口 H20 GPU。该芯片基于公司的 Hopper 架构,与向美国公司销售的 H100 和 H200 产品相当,但其带宽较小、互联速度较慢。该芯片本意是为了满足此前对中国芯片出口的限制要求,但特朗普政府的官员似乎认为,即使是降级版的 H20,也仍然过于强大,不适合出口到 AI 行业最大的竞争对手中国。
这一决定是在几周前有消息透露,初创公司 DeepSeek Ltd. 利用 H20 芯片集群开发了一款具备推理能力,与 OpenAI 及其他美国公司最优秀模型相媲美的基础模型之后做出的。
据路透社援引三位熟悉公司计划的匿名消息人士称,Nvidia 新芯片较低的价格反映了其规格降低以及较为简单的制造要求。该芯片将基于 Nvidia RTX Pro 6000D——一款服务器级 Blackwell GPU,并将采用传统的 GDDR7 内存,而非其他 Blackwell 芯片上采用的高带宽内存。消息人士补充称,该芯片最早可能在 6 月实现量产。
新芯片不会采用台湾积体电路制造公司最先进的 Chip-on-Wafer-on-Substrate 封装技术,而是选择使用较旧的工艺。
Nvidia 一位发言人拒绝对新芯片发表评论,但表示公司仍在评估针对中国市场的“有限选项”。该发言人说: "在我们敲定新的产品设计并获得美国政府批准之前,我们实际上被排除在中国 50 亿美元数据中心市场之外。"
尽管受到制裁,中国仍然是 Nvidia 的重要市场,在上一财年占据其年收入的 13%。该公司此前已两次因向中国公司销售其最先进芯片而遭到制裁,每次均以为该市场推出降级版本技术作为回应。
Nvidia 在中国 GPU 市场上最大的竞争对手是华为技术有限公司,其生产 Ascend 910B 芯片组。White Oak Capital Partners 的半导体行业分析师 Nori Chiou 告诉路透社,预计华为将在未来一到两年内能够匹配 Nvidia 降级芯片的性能。不过,凭借芯片能与 CUDA 平台整合 AI 集群的优势,Nvidia 仍保有领先优势。
CUDA 是用于优化应用程序和 AI 模型在 Nvidia GPU 上运行的编程架构,其广泛普及使得开发者倾向于继续使用该平台。
今年 4 月实施的出口禁令迫使 Nvidia 注销了超过 55 亿美元的库存,首席执行官黄仁勋上周还承认,该禁令使公司损失超过 150 亿美元的销售收入。
据黄仁勋介绍,Nvidia 最初考虑研发比 H20 更进一步降级的版本以应对最新限制,但很快发现基于旧 Hopper 架构无法进行进一步修改。
最新的限制对 GPU 内存带宽设定了新的上限。内存带宽衡量的是实际处理器与板载内存系统之间数据传输的速度,而对于 AI 工作负载来说,更高的带宽至关重要,因为此类任务需要处理大量数据。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。