这个剧本让人感觉异常熟悉:充满热情的推介、天文数字般的估值,以及在完全相同的 PPT 中仅仅用"生成式 AI"替换掉"电子商务"。当科技巨头在 AI 军备竞赛中投入数十亿美元时,投资者面临着一个万亿美元级的问题:我们是在见证下一个互联网时代的诞生,还是在目睹另一个投机泡沫的膨胀?
高盛坚定地站在"这一次真的不一样"的阵营。该行全球首席股票策略师 Peter Oppenheimer 用一叠表格驳斥了泡沫论,数据显示自金融危机以来,科技行业的每股收益激增了 400%,而其他行业仅增长了 25%。Oppenheimer 写道:"这种成功的驱动力在于他们利用软件和云计算的能力,以及由超常需求增长带来的高盈利能力。"
但 Oppenheimer 本人也无法忽视一些令人不安的危险信号。以 Nvidia 为首的少数科技巨头如今掌控着惊人份额的市场。
他写道:"当市场越来越依赖于少数几家公司的命运时,个股失误带来的连锁反应可能会特别严重。"与那些只需一台服务器就能创业的互联网公司不同,当今的 AI 玩家正以前所未有的速度烧钱。Oppenheimer 指出:"AI 正在推动一场重大的资本支出热潮,这可能会抑制该行业过去 15 年来的高回报率。"随着每一个揭示,他的语气愈发谨慎。
认为我们正处于泡沫中的市场观察家们直言不讳。准确预测了 2000 年崩盘的橡树资本联合创始人 Howard Marks,在其 1 月份题为"泡沫观察"的投资备忘录中贴满了"警示标志"。Marks 指出了几个令他警惕的信号:投资者无视风险追逐回报、用可疑的"新范式"论证天价估值,以及市场显示出"非理性繁荣"的典型特征。
诺贝尔经济学奖得主 Paul Krugman 认为市场正在冲向同样的悬崖,他指出标普 500 的市盈率已接近 30 倍——这与 1999 年 93 倍的水平危险地接近,Krugman 说那"看起来很疯狂,事实也确实如此"。Krugman 在这场市场重演中发现了一个转折:"AI 热潮集中在少数几家公司身上——'超级七巨头'——其中大多数已经是根深蒂固的准垄断企业。"
Krugman 抛出了一个投资者应该更常问的问题,来刺破 AI 的泡沫:"Microsoft Office 或 Google 搜索的市场还能变多大?我理解这些公司出于防御目的需要投资 AI,以抵御潜在竞争对手。但这种需求实际上应该降低而不是提高它们的盈利能力。"换句话说,Microsoft 投资 OpenAI 130 亿美元不是为了寻找新客户,而是在一场零和游戏中进行防守。
在预测科技泡沫的人中,没有人比 AI 研究员 Gary Marcus 的警告更响亮,他此前就准确预见了这项技术的局限性。在他看来,我们显然正处于一个即将破灭的泡沫中,尽管他认为生成式 AI 不会消失。
他写道:"生成式 AI 本身不会消失。但投资者可能会停止以目前的速度投入资金,热情可能会减退,许多人可能会赔得精光。"
对于在 FOMO 和财务谨慎之间摇摆的投资者来说,就连高盛也建议对冲风险。一边驳斥泡沫担忧,一边又建议"寻求多样化投资以改善风险调整后回报"。这就是华尔街的典型作风:标题唱多,注脚谨慎。
真正的争论不在于 AI 是否改变一切,而在于时机和谁能存活下来。25 年前,互联网确实改变了商业、教育和社会,但不是按照互联网投资者预期的时间表和方式。Amazon 从废墟中崛起,但其股票曾暴跌 90%。Google 蓬勃发展,但 Excite、Lycos 和 AltaVista 都消失了。
正如 Marcus 指出的,今天的 AI 宠儿们面临着类似的清算:"目前估值数十亿美元的公司可能会倒闭或被分拆。去年的宠儿们很少能达到近期的预期。"
AI 革命正在到来。但革命往往会吞噬一些最早和最热情的追随者。
好文章,需要你的鼓励
科技泡沫并非世界末日,从经济角度看,泡沫是押注过大导致供过于求。AI泡沫问题复杂在于AI软件开发节奏与数据中心建设周期的时间错配。甲骨文关联数据中心获180亿美元信贷,Meta承诺三年内投入6000亿美元基础设施。麦肯锡调查显示企业虽广泛使用AI但规模有限,多数仍持观望态度。微软CEO表示更担心数据中心空间不足而非芯片短缺,电力需求成为新瓶颈。
香港中文大学研究团队开发的Search-R3系统成功解决了大语言模型推理与搜索分离的问题,通过两阶段训练让AI在深度思考过程中直接生成搜索向量。该系统在多个领域测试中显著超越现有方法,特别是启用推理后性能提升明显,为AI系统设计提供了推理与搜索统一的新范式,展现了从专门化向通用化发展的重要方向。
Goodfire.ai研究人员首次发现AI语言模型中记忆和推理功能通过完全独立的神经通路运作。研究显示,移除记忆通路后,模型丧失97%的训练数据复述能力,但逻辑推理能力几乎完全保留。令人意外的是,算术运算与记忆共享神经通路而非推理通路,这可能解释了AI模型在数学方面的困难。该技术未来有望用于移除版权内容或敏感信息而不损害模型核心功能。
这项由ETH苏黎世等机构发表的突破性研究首次系统性揭示了优化器选择对AI模型量化性能的重大影响。研究团队发现传统的异常值理论完全失效,并开发了革命性的ABC分解框架来准确预测量化后性能。实验证明Shampoo优化器在量化场景下表现最优,该发现为AI模型的实际部署提供了重要指导,有望让AI技术在资源受限设备上发挥更大作用。