对于一群渴望取代 Nvidia 地位的 AI 芯片公司来说,DeepSeek 带来了他们期待已久的机会。
在中国新秀 DeepSeek 令美国 AI 芯片巨头市值蒸发超过惊人的 8000 亿美元后的第二天,你可能会以为下一代芯片公司 Cerebras 的 CEO Andrew Feldman 正在潮湿的作战室里紧张地谋划如何拯救公司。然而事实恰恰相反,他正在庆祝。
"我们确实在欢庆," 他对 Forbes 表示。"这是美好的时刻。我们现在忙得连电话都接不过来。"
对于一家 AI 芯片初创公司来说,这听起来似乎有违直觉,但 Feldman 表示,自从 DeepSeek 颠覆了硅谷"更多芯片和更大预算等于更好的 AI"的传统观念以来,他的公司(预计今年晚些时候上市)获得了突飞猛进的关注度。在过去几周内,DeepSeek 发布了两个开源模型,其性能几乎可以媲美最好的美国技术,但训练和运行成本却低得多,这引发了对美国 AI 霸主地位的普遍恐慌。他认为这将导致 AI 使用量的爆发性增长。
"每次当我们提高计算性能并降低成本时,市场都会变得更大而不是更小," Feldman 说。"每一次都是如此。"
他如此乐观是因为目前估值 40 亿美元的 Cerebras 专门设计用于提高 AI 使用效率的芯片。这个过程被称为"推理" —— 本质上就是运行 AI 模型并让它像人类一样"思考"和推理,而不是将数据输入模型来教会它如何进行这种思考。每当你让 ChatGPT 写邮件或解决编程问题时,就是在进行推理。
在推理方面,Nvidia 的垄断程度较低,这让许多小型初创公司有了发展空间。Cerebras 在初创芯片行业的同行们也告诉 Forbes,他们同样对 DeepSeek 引发的变革感到兴奋。估值 51 亿美元的 SambaNova 的 CEO Rodrigo Liang 表示:"DeepSeek 颠覆了开源和推理领域的 AI 格局。" 估值 28 亿美元的 Groq 的 COO Sunny Madra 告诉 Forbes,在其 GroqCloud 平台上添加 DeepSeek 的 R1 模型后,芯片的注册量和使用量都出现了激增。"这对专注于推理的公司来说是个好消息," 他说。去年 6 月完成 1.2 亿美元 A 轮融资的早期公司 Etched 的联合创始人 Robert Wachen 表示:"这是推理变得比训练更重要的必然反应。"
DeepSeek 声称在两个月内仅花费 558 万美元就训练出了拥有 6710 亿参数的语言模型 V3(于去年 12 月底发布),这比 OpenAI 在其(规模更大的)GPT-4 模型上花费的 1 亿美元少了几个数量级。这一说法受到了激烈质疑。业内许多人认为 DeepSeek 使用的资金和算力比公司透露的要多,Scale 的 CEO Alexandr Wang 声称该公司拥有约 5 万块在中国被禁的 Nvidia 最新 H100 芯片。但这种反向价格震撼还是给美国竞争对手留下了深刻印象。SambaNova 的 Liang 说:"我们不知道是 600 万还是 6000 万美元,但肯定不是 6 亿美元。"
DeepSeek 不仅展示了可以更经济地训练模型,还证明了增加推理投入会产生更好的结果。上周,DeepSeek 开源了 R1 推理模型,这个模型类似于 OpenAI 的 o1 模型,但可以免费使用(而 OpenAI 每月收费 200 美元)。与所有推理模型一样,R1 在处理多步骤查询时需要更多的推理能力。对于 Cerebras 等公司来说,推理密集型模型的增加,加上更多人因为成本降低而使用 AI,都是好消息。
对于这群试图取代 Nvidia 的公司来说,这种反应带有一定的私心。即使在周一市值蒸发近 6000 亿美元、股价下跌 17% 之后,Nvidia 的市值仍然高达 2.93 万亿美元。Liang 说,这次暴跌"反映出 Nvidia 的大部分业务都依赖于大公司购买大量 GPU 用于预训练",而不是用于推理。
但 CEO Jensen Huang 是一个强劲的竞争对手。他已经宣传该公司的推理能力好几个月了,芯片初创公司们都告诉 Forbes,Nvidia 的股价暴跌是过度反应。股价下跌后,该公司发表声明强调其推理能力。"推理需要大量 Nvidia GPU 和高性能网络," 该公司在给 Forbes 的声明中说。
与此同时,像 OpenAI、Anthropic 或 Google DeepMind 这样在 Nvidia GPU 上投入数十亿美元的大型 AI 前沿实验室并没有浪费钱。DeepSeek 向业界展示了如何突破现有优化极限,这意味着每个人都能获得更大更好的 AI。GPU 交易市场 San Francisco Compute Company 的联合创始人 Evan Conrad 告诉 Forbes:"如果你有更高效的训练过程,那么用相同的算力就能训练更大的模型。"
除了硅谷肯定会效仿的技术成就外,DeepSeek 的成功对生活在 Nvidia 阴影下的小型芯片公司还有其他启示。Feldman 说:"对我们这些后来者来说,这应该让你充满斗志。"
好文章,需要你的鼓励
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
AI代码编辑器开发商Cursor完成23亿美元D轮融资,估值达293亿美元。Accel和Coatue领投,Google、Nvidia等参与。公司年化收入已突破10亿美元。Cursor基于微软开源VS Code打造,集成大语言模型帮助开发者编写代码和修复漏洞。其自研Composer模型采用专家混合算法,运行速度比同等质量模型快四倍。公司拥有数百万开发者用户,将用新资金推进AI研究。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。