对于一群渴望取代 Nvidia 地位的 AI 芯片公司来说,DeepSeek 带来了他们期待已久的机会。
在中国新秀 DeepSeek 令美国 AI 芯片巨头市值蒸发超过惊人的 8000 亿美元后的第二天,你可能会以为下一代芯片公司 Cerebras 的 CEO Andrew Feldman 正在潮湿的作战室里紧张地谋划如何拯救公司。然而事实恰恰相反,他正在庆祝。
"我们确实在欢庆," 他对 Forbes 表示。"这是美好的时刻。我们现在忙得连电话都接不过来。"
对于一家 AI 芯片初创公司来说,这听起来似乎有违直觉,但 Feldman 表示,自从 DeepSeek 颠覆了硅谷"更多芯片和更大预算等于更好的 AI"的传统观念以来,他的公司(预计今年晚些时候上市)获得了突飞猛进的关注度。在过去几周内,DeepSeek 发布了两个开源模型,其性能几乎可以媲美最好的美国技术,但训练和运行成本却低得多,这引发了对美国 AI 霸主地位的普遍恐慌。他认为这将导致 AI 使用量的爆发性增长。
"每次当我们提高计算性能并降低成本时,市场都会变得更大而不是更小," Feldman 说。"每一次都是如此。"
他如此乐观是因为目前估值 40 亿美元的 Cerebras 专门设计用于提高 AI 使用效率的芯片。这个过程被称为"推理" —— 本质上就是运行 AI 模型并让它像人类一样"思考"和推理,而不是将数据输入模型来教会它如何进行这种思考。每当你让 ChatGPT 写邮件或解决编程问题时,就是在进行推理。
在推理方面,Nvidia 的垄断程度较低,这让许多小型初创公司有了发展空间。Cerebras 在初创芯片行业的同行们也告诉 Forbes,他们同样对 DeepSeek 引发的变革感到兴奋。估值 51 亿美元的 SambaNova 的 CEO Rodrigo Liang 表示:"DeepSeek 颠覆了开源和推理领域的 AI 格局。" 估值 28 亿美元的 Groq 的 COO Sunny Madra 告诉 Forbes,在其 GroqCloud 平台上添加 DeepSeek 的 R1 模型后,芯片的注册量和使用量都出现了激增。"这对专注于推理的公司来说是个好消息," 他说。去年 6 月完成 1.2 亿美元 A 轮融资的早期公司 Etched 的联合创始人 Robert Wachen 表示:"这是推理变得比训练更重要的必然反应。"
DeepSeek 声称在两个月内仅花费 558 万美元就训练出了拥有 6710 亿参数的语言模型 V3(于去年 12 月底发布),这比 OpenAI 在其(规模更大的)GPT-4 模型上花费的 1 亿美元少了几个数量级。这一说法受到了激烈质疑。业内许多人认为 DeepSeek 使用的资金和算力比公司透露的要多,Scale 的 CEO Alexandr Wang 声称该公司拥有约 5 万块在中国被禁的 Nvidia 最新 H100 芯片。但这种反向价格震撼还是给美国竞争对手留下了深刻印象。SambaNova 的 Liang 说:"我们不知道是 600 万还是 6000 万美元,但肯定不是 6 亿美元。"
DeepSeek 不仅展示了可以更经济地训练模型,还证明了增加推理投入会产生更好的结果。上周,DeepSeek 开源了 R1 推理模型,这个模型类似于 OpenAI 的 o1 模型,但可以免费使用(而 OpenAI 每月收费 200 美元)。与所有推理模型一样,R1 在处理多步骤查询时需要更多的推理能力。对于 Cerebras 等公司来说,推理密集型模型的增加,加上更多人因为成本降低而使用 AI,都是好消息。
对于这群试图取代 Nvidia 的公司来说,这种反应带有一定的私心。即使在周一市值蒸发近 6000 亿美元、股价下跌 17% 之后,Nvidia 的市值仍然高达 2.93 万亿美元。Liang 说,这次暴跌"反映出 Nvidia 的大部分业务都依赖于大公司购买大量 GPU 用于预训练",而不是用于推理。
但 CEO Jensen Huang 是一个强劲的竞争对手。他已经宣传该公司的推理能力好几个月了,芯片初创公司们都告诉 Forbes,Nvidia 的股价暴跌是过度反应。股价下跌后,该公司发表声明强调其推理能力。"推理需要大量 Nvidia GPU 和高性能网络," 该公司在给 Forbes 的声明中说。
与此同时,像 OpenAI、Anthropic 或 Google DeepMind 这样在 Nvidia GPU 上投入数十亿美元的大型 AI 前沿实验室并没有浪费钱。DeepSeek 向业界展示了如何突破现有优化极限,这意味着每个人都能获得更大更好的 AI。GPU 交易市场 San Francisco Compute Company 的联合创始人 Evan Conrad 告诉 Forbes:"如果你有更高效的训练过程,那么用相同的算力就能训练更大的模型。"
除了硅谷肯定会效仿的技术成就外,DeepSeek 的成功对生活在 Nvidia 阴影下的小型芯片公司还有其他启示。Feldman 说:"对我们这些后来者来说,这应该让你充满斗志。"
好文章,需要你的鼓励
这项研究提出了R1-Searcher++框架,通过两阶段训练策略使大语言模型能像人类一样灵活利用内部知识和外部信息。该方法创新性地采用强化学习激励模型优先使用内部知识,并引入记忆机制将检索到的信息转化为内部知识,实现动态知识获取。实验表明,R1-Searcher++不仅在多步问答任务上表现优异,还大幅减少了检索次数,显著提高了推理效率。
这项研究提出了AutoRefine,一种革新性的强化学习框架,为大语言模型引入了"边思考边搜索和完善"的全新范式。与传统方法不同,AutoRefine在连续搜索调用之间添加知识完善步骤,让模型能够有效过滤和组织信息。通过结合答案正确性和检索质量双重奖励,该方法在七项问答基准测试中平均提升6.9%的准确率,特别在复杂多跳推理场景中表现突出,解决了现有检索增强推理的核心局限性。
这项研究揭示了一种新型网络安全威胁:利用普通网络广告攻击AI网页代理。中科院研究团队开发的AdInject攻击无需特殊权限,仅通过精心设计的广告内容就能误导AI代理点击恶意链接,成功率高达90%以上。研究使用严格的黑盒模型,更符合现实场景,暴露了当前AI代理面临的实际安全漏洞。实验还表明,即使添加专门的防御提示,这类攻击仍能成功率超过50%,凸显了设计更强大防御机制的紧迫性。
东北大学与快手科技联合研发的UNITE系统为多模态信息检索带来突破性进展。这项发表于2025年5月的研究首次系统分析了模态特定数据如何影响检索性能,并提出创新的模态感知掩码对比学习技术,有效解决不同模态间的竞争关系。UNITE能同时处理文本、图像、视频及其组合,在40多项测试中超越现有方法,即使与参数规模更大的模型相比也表现出色。研究发现视频-文本对在通用检索中表现优异,而文本-文本和文本-图像对对指令遵循任务至关重要,为未来多模态系统研究提供了宝贵指南。