DeepSeek 今天发布了一个新的大语言模型系列 - R1 系列,该系列专门针对推理任务进行了优化。
这家中国人工智能开发商已经在 Hugging Face 平台上开源了这些算法的源代码。
该大语言模型系列的主打产品是两个名为 R1 和 R1-Zero 的算法。据 DeepSeek 称,前者在多个推理基准测试中的表现优于 OpenAI 的 o1。而 R1-Zero 虽然能力相对较弱,但在机器学习研究领域可能代表着一个重要突破。
这两个大语言模型都采用了具有 6710 亿参数的混合专家 (MoE) 架构。MoE 模型由多个神经网络组成,每个网络都针对不同的任务集进行优化。当模型接收到输入提示时,一个称为路由器的机制会将查询发送到最适合处理它的神经网络。
MoE 架构的主要优势在于降低了推理成本。当用户向 MoE 模型输入提示时,查询不会激活整个 AI,而只会激活生成响应所需的特定神经网络。因此,R1 和 R1-Zero 在回答提示时激活的参数不到其 6710 亿参数的十分之一。
DeepSeek 在训练 R1-Zero 时采用了一种与研究人员通常使用的推理模型训练方法不同的方式。
推理优化的大语言模型通常使用强化学习和监督微调两种方法进行训练。前者通过试错来教会 AI 模型执行任务。而监督微调则通过提供任务执行示例来提升 AI 的输出质量。
在训练 R1-Zero 时,DeepSeek 跳过了监督微调阶段。尽管如此,该公司仍然成功地为模型配备了推理能力,比如将复杂任务分解为更简单子步骤的能力。
"这是首个通过纯强化学习验证大语言模型推理能力的开放研究,无需监督微调," DeepSeek 的研究人员详细说明。"这一突破为该领域的未来发展铺平了道路。"
尽管 R1-Zero 具有先进的功能集,但其输出质量有限。该模型的响应有时会出现"无休止的重复、可读性差和语言混杂"等问题,DeepSeek 的研究人员指出。该公司创建 R1 就是为了解决这些限制。
R1 是 R1-Zero 的增强版本,采用了修改后的训练工作流程开发。这个工作流程使用了 DeepSeek 在开发 R1-Zero 时省略的监督微调技术。该公司表示,这一改变显著提升了输出质量。
DeepSeek 使用近二十个基准测试将 R1 与四个流行的大语言模型进行了比较。据该公司称,其模型在多个基准测试中成功超越了 OpenAI 的推理优化模型 o1。在 o1 得分较高的大多数基准测试中,R1 的表现仅落后不到 5%。
R1 超越 o1 的基准测试之一是 LiveCodeBench。这是一个经常更新新练习题的编程任务集合。这降低了 AI 模型在公共网络上找到现成答案的可能性。
除了 R1 和 R1-Zero,DeepSeek 今天还开源了一系列能力较弱但硬件效率更高的模型。这些模型是从 R1 "蒸馏" 而来,这意味着在训练过程中,部分 LLM 的知识被转移到了这些模型中。
这些蒸馏模型的规模从 15 亿到 700 亿参数不等。它们基于 Llama 和 Qwen 开源大语言模型系列。DeepSeek 表示,其中一个蒸馏模型 R1-Distill-Qwen-32B 在多个基准测试中的表现优于 o1 的缩小版本 OpenAI-o1-mini。
好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。