Nvidia 公司今天宣布计划在美国大规模生产人工智能超级计算机。
公司同时透露,台湾半导体制造公司 (TSMC) 已在其位于亚利桑那州的晶圆厂园区开始生产 Blackwell 芯片。该园区目前包含一座去年启用的运营中的处理器工厂。未来几年,TSMC 计划在该地点建设另外五座晶圆厂以及两座先进封装设施。
Nvidia 同时还与其他几家供应商合作,共同推动其在美国的新制造计划。参与方包括 Amkor Technology Inc.、Wistron Corporation、SPIL Co. 以及 Foxconn。
Nvidia 的 Blackwell 芯片内置 288 千兆位的存储器,可用于存储人工智能模型的数据。该存储器与芯片中的逻辑模块(用于执行计算的组件)通过一种称为封装的互联技术集成。参与 Nvidia 新制造计划的两家合作伙伴 Amkor 以及 SPIL 均是全球领先的芯片封装供应商。
在这两家公司中,Amkor 规模较大,年收入超过 60 亿美元。目前,Amkor 正在亚利桑那州 TSMC 芯片园区附近建设一座价值 20 亿美元的封装工厂。Amkor 表示,该工厂将为包括人工智能系统在内的产品提供封装组件。
TSMC 的晶圆厂大概仅生产 Nvidia Blackwell 芯片中的逻辑模块。后者历来依赖 SK Hynix Inc. 提供与逻辑模块集成的高速存储器。今年早些时候,Samsung Electronics Co. Ltd. 也获得了为 Nvidia 处理器制造存储器的许可。
这家芯片制造商的旗舰级 Blackwell 显卡在处理以 FP4 格式存储的数据时,能够提供 20 拍浮点运算性能,而这种格式被 AI 应用广泛使用。1 拍浮点运算相当于每秒 1,000 万亿次计算。Nvidia 最近预览了改进版芯片 Blackwell Ultra,其承诺在推理工作负载上比原版提高 50% 的性能。
Nvidia 今天详细说明,尽管其 Blackwell 芯片将在亚利桑那州生产,但 AI 超级计算机将于德克萨斯州制造。该公司以 DGX 品牌销售的服务器可以互联组成超级计算机。最先进的 DGX 服务器将八颗 Blackwell 芯片与近 2TB 闪存存储以及其他辅助组件集成在一起。
根据 Nvidia 的说法,Foxconn 和 Wistron 分别将在休斯顿和达拉斯制造超级计算机。Foxconn,即富士康精密工业股份有限公司,最近透露其生产了全球大部分由 Nvidia 驱动的 AI 服务器。另一家主要的电子制造商 Wistron 也据称正在美国投资 5000 万美元建设一座 AI 服务器工厂。
Nvidia 表示,参与该计划的供应商将共同投入超过 100 万平方英尺的制造空间用于生产其产品。根据该芯片制造商的说法,Foxconn 和 Wistron 的设施将在未来 12 至 18 个月内扩展生产规模。
Nvidia 将协助设计和运营这些新工厂。该公司计划利用其 Omniverse 和 Isaac GR00T 产品套件完成这一工作。
Omniverse 是一组可以用于创建数字孪生(物理系统的虚拟复制品)的软件工具。制造商利用数字孪生来模拟生产线,并找出改进之处。Nvidia 计划在该项目中使用的另一款产品套件 Isaac GR00T 则简化了为工厂机器人开发 AI 模型的过程。
Nvidia 首席执行官 Jensen Huang 表示:“全球 AI 基础设施的引擎首次在美国建设。增加美国本土制造有助于我们更好地满足对 AI 芯片和超级计算机日益增长的需求,增强我们的供应链并提升我们的韧性。”
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。