几周前,我在浏览我们的网站时,偶然发现了高级编辑Samuel K. Moore撰写的文章《内存芯片短缺何时以及如何结束》。他的分析聚焦于当前由AI超大规模部署商对内存的巨大需求所导致的DRAM短缺,这成为大语言模型运行速度的主要制约因素。Moore清楚地解释了这种短缺,特别是高带宽内存(HBM)的短缺情况。
正如我们和其他科技媒体所记录的,AI是一个资源消耗大户。到2028年,AI的电力消耗可能占美国所有电力的12%。生成式AI查询在2025年消耗了15太瓦时电力,预计到2030年将消耗347太瓦时。用于冷却AI数据中心的水消耗预计到2028年将比2023年翻倍甚至翻两番。
但Moore的报道揭示了AI繁荣中一个不为人知的角落。HBM是专为服务AI处理器而定制的特殊类型内存产品。这些处理器的制造商,特别是英伟达和AMD,在谷歌、微软、OpenAI和Anthropic等公司需求的推动下,对其每个芯片都要求越来越多的内存,这些公司正在资助前所未有的数据中心建设。其中一些设施规模庞大:你可以在《建设世界最大数据中心需要什么》一文中了解Meta在路易斯安那州建设令人震惊的5吉瓦Hyperion站点所面临的工程挑战。
我们意识到Moore的HBM报道既重要又独特,因此决定将其纳入本期,并对2月10日发布的原文进行了一些更新。我们将其与特约编辑Matthew S. Smith最近的一篇文章配对,该文章探讨了内存芯片短缺如何推高树莓派等低成本计算机的价格。最终形成了《AI是内存消耗大户》这篇文章。
现在的关键问题是:短缺何时会结束?至少在美国,AI超大规模部署商需求对各种消费电子产品造成的价格压力,正被顽固的通胀和不断变化的关税制度所掩盖。因此我询问Moore,他正在关注哪些指标来判断内存短缺是否会缓解。
"在供应方面,我认为如果三大HBM公司——美光、三星和SK海力士中的任何一家表示他们正在调整新产能到位的时间表,那将是一个重要信号,"Moore告诉我。"在需求方面,观察整个供应链中的科技公司如何适应将很有趣。数据中心可能会转向牺牲一些性能以换取更少内存使用的硬件。开发各种产品的初创公司可能会转向使用更少内存的创新重新设计。像短缺这样的约束可能导致有趣的技术解决方案,所以我期待报道这些内容。"
为了确保您不会错过Moore对这一话题的任何分析,并保持对整个技术发展领域的了解,请订阅我们的周刊《技术警报》。
Q&A
Q1:什么是HBM,为什么它对AI如此重要?
A:HBM是高带宽内存的缩写,是专为服务AI处理器而定制的特殊类型内存产品。它对AI如此重要是因为大语言模型运行需要大量内存,而HBM能够提供AI处理器所需的高速数据传输能力,是制约大语言模型运行速度的关键因素。
Q2:AI对内存的需求有多大?
A:AI是一个巨大的资源消耗者。预计到2028年,AI的电力消耗可能占美国所有电力的12%。生成式AI查询在2025年消耗了15太瓦时电力,预计到2030年将消耗347太瓦时。同时,用于冷却AI数据中心的水消耗预计到2028年将比2023年翻倍甚至翻两番。
Q3:内存芯片短缺何时会结束?
A:根据专家分析,需要关注两个方面的信号:供应方面,如果美光、三星和SK海力士等三大HBM公司调整新产能到位的时间表,将是重要信号;需求方面,科技公司可能会适应性调整,比如数据中心转向牺牲性能换取更少内存使用的硬件,或初创公司采用更少内存的创新设计。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。