内存价格正在暴跌,内存公司股价崩盘,起因是谷歌研究院发布了一项突破性技术,能够大幅减少AI处理所需的内存。
AI不仅以高计算要求著称,内存需求同样巨大。处理大语言模型和执行推理需要大量内存,这导致市场上可用内存严重短缺,因为AI数据中心吞噬了所有供应。
谷歌研究院推出了TurboQuant,这是一种针对大语言模型和向量搜索引擎的压缩算法,可能大幅降低AI内存需求。据谷歌表示,TurboQuant通过将AI模型的内存使用量减少6倍,缓解了主要的推理内存瓶颈,在相同GPU数量下速度提升8倍,同时保持零精度损失,"重新定义AI效率"。
谷歌在X平台宣布TurboQuant后,社交网络立即炸锅。人们开始下载早期版本代码并进行测试,发现它确实兑现了承诺。
大型内存芯片制造商股价下跌,美光科技股价在两周内暴跌超过100美元,从3月中旬的467美元跌至几天后的366美元,尽管公平地说,整个市场同时都在震荡。
这也对内存定价产生了重大影响。台湾经济日报报道,DDR5内存条价格在过去几周内下跌15%至30%,这是内存价格一段时间以来的首次下降。
市场上一次见证如此震荡还是中国的DeepSeek,但人们很快对其效力产生怀疑。开发者发现DeepSeek的效率提升需要深度架构决策,必须从一开始就内置。TurboQuant不需要重新训练或微调,理论上可以直接投入现有推理管道。
如果它能在生产系统中无需改装就运行,那么数据中心运营商将在现有硬件上获得巨大性能提升。数据中心运营商不必为解决性能问题而增加硬件投入。
然而,分析师呼吁在得出结论前要谨慎。Dell'Oro集团物理基础设施研究总监Alex Cordovil说:"这是一项研究突破,不是发货产品。发表的论文与现实世界推理工作负载之间往往存在有意义的差距。"
此外,Dell'Oro的基本观点仍然是,AI计算的效率提升往往会被更多需求所消耗,这被称为杰文斯悖论。"任何释放的容量可能会被前沿模型扩展能力所吸收,而不是减少硬件占用空间。"
客观分析公司总裁Jim Handy同意第二部分观点。他说:"超大规模云服务商不会削减支出,他们只会花同样的钱获得更多价值。数据中心不是要达到某个性能水平然后停止在AI上的支出。他们要通过超支对手来获得市场主导地位。这不会改变这一点。"
谷歌计划在4月23日至27日在里约热内卢举行的ICLR会议上提交概述TurboQuant的论文。
Q&A
Q1:TurboQuant是什么技术?有什么优势?
A:TurboQuant是谷歌研究院开发的一种针对大语言模型和向量搜索引擎的压缩算法。它能将AI模型的内存使用量减少6倍,在相同GPU数量下速度提升8倍,同时保持零精度损失,不需要重新训练或微调。
Q2:TurboQuant对内存市场产生了什么影响?
A:TurboQuant发布后,内存价格暴跌,DDR5内存条价格在过去几周内下跌15%至30%。大型内存芯片制造商股价也大幅下跌,美光科技股价在两周内暴跌超过100美元。
Q3:TurboQuant能否在实际生产中广泛应用?
A:分析师认为需要谨慎对待。这目前还是研究突破而非发货产品,发表论文与现实应用之间往往存在差距。即使技术成熟,效率提升可能会被更多AI需求消耗,而不是减少硬件投入。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。