Hugging Face Inc. 的研究人员表示,他们正在尝试重新打造中国初创公司 DeepSeek 的 R1 "推理模型"。
这项计划是在 R1 以远低于美国公司的成本,却达到了同等性能表现而震惊人工智能界之后启动的。Hugging Face 研究人员表示,Open-R1 项目旨在创建一个完全开源的 R1 模型复制品,并向 AI 社区开放其所有组件。
负责该项目的 Hugging Face 工程师之一 Elie Bakouch 向 TechCrunch 表示,尽管 DeepSeek 声称 R1 是开源的,因为它可以无限制使用,但事实上它并不符合开源软件的标准定义。这是因为许多用于构建它的组件以及用于训练的数据都未公开。
他说,由于缺乏关于 DeepSeek 内部构成的信息,它实际上只是另一个"黑盒子",类似于 OpenAI 的 GPT 系列等专有模型,这使得 AI 社区无法在其基础上进行改进。
DeepSeek(由杭州深度求索人工智能有限公司和北京深度求索人工智能有限公司运营)上周在 Hugging Face 上发布其两个主要推理模型 - DeepSeek-R1-Zero 和 DeepSeek-R1 时引起轰动。同时,该公司还在 arxiv.com 上发表了一篇论文,概述了这些模型的开发过程。
根据开发者的说法,R1 模型仅花费 560 万美元就能够匹配 OpenAI 的 GPT-4o 和 Anthropic PBC 的 Claude 等先进大语言模型的性能,这引起了广泛关注。相比之下,OpenAI 和 Google LLC、Meta Platforms Inc. 等美国公司在开发自己的模型时投入了数十亿美元。
DeepSeek 的模型证明了不需要投入巨资也能取得同样的进展,这一发现在本周早些时候引发了金融市场的动荡,参与 AI 开发的美国公司股票在周一大跌。AI 芯片制造商 Nvidia Corp. 股价下跌 15%,Broadcom Inc. 股价下跌 16%,台湾积体电路制造公司下跌 14%。
与此同时,DeepSeek 的 iOS 聊天机器人应用程序(提供 R1 模型的免费访问)突然跃居本周 Apple App Store 生产力应用排行榜榜首。
这家中国公司声称,R1 的开发使用了更少且性能较低的图形处理器,这与开发 GPT-4o 和 Llama 3 等模型所用的设备形成鲜明对比,这引发了人们对 AI 领域数十亿美元投资是否真有必要的质疑。在多个基准测试中,R1 已经展示出可以匹配甚至超越 OpenAI 的 o1 推理模型的性能。
推理模型以其在输出响应前进行"事实核查"的能力而著称,这有助于避免标准大语言模型常见的"幻觉"问题。虽然由于准确性检查需要一定时间,它们生成响应的速度稍慢,但在物理、科学和数学等领域表现得更加可靠。
Hugging Face 表示,他们试图复制 R1 是为了造福 AI 研究社区,并计划在几周内完成这项工作。为此,他们将利用公司配备了 768 个 Nvidia H100 GPU 的专用研究服务器"Science Cluster"。计划是通过逆向工程 R1 模型,以了解其训练数据和构建组件。
Open-R1 项目正在寻求更广泛的 AI 研究社区的协助,以重建 DeepSeek 使用的训练数据集。该项目已经引起了广泛关注,其 GitHub 页面在发布三天后就获得了超过 100,000 个星标。
Bakouch 表示,这个项目并非零和游戏,而是可能为更广泛的 AI 行业带来更多益处的开端。他希望他们最终建立的成果能够成为新一代更先进的开源推理模型的基础。他解释说,如果他们能够重建 R1,整个 AI 社区都可以研究其工作原理并尝试改进它。
他说:"开源开发立即使所有人受益,包括前沿实验室和模型提供商,因为他们都可以使用相同的创新成果。"
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。