中国 AI 实验室 DeepSeek 发布了其所谓推理模型 DeepSeek-R1 的开源版本,声称在某些 AI 基准测试上表现与 OpenAI 的 o1 相当。
R1 在 AI 开发平台 Hugging Face 上以 MIT 许可证发布,这意味着它可以不受限制地用于商业用途。据 DeepSeek 称,R1 在 AIME、MATH-500 和 SWE-bench Verified 基准测试上超越了 o1。AIME 使用其他模型来评估模型的性能,而 MATH-500 是一系列应用题集合。SWE-bench Verified 则专注于编程任务。
作为一个推理模型,R1 能够有效地进行自我事实核查,这有助于避免通常让模型陷入困境的一些陷阱。与典型的非推理模型相比,推理模型需要更长的时间(通常多几秒到几分钟)来得出解决方案。好处是它们在物理、科学和数学等领域往往更可靠。
DeepSeek 在一份技术报告中透露,R1 包含 6710 亿个参数。参数大致对应于模型的问题解决能力,具有更多参数的模型通常比具有较少参数的模型表现更好。
确实,6710 亿参数规模庞大,但 DeepSeek 同时发布了 R1 的"精简"版本,参数规模从 15 亿到 700 亿不等。最小的版本可以在笔记本电脑上运行。至于完整版 R1,虽然需要更强大的硬件,但可以通过 DeepSeek 的 API 使用,价格比 OpenAI 的 o1 便宜 90%-95%。
Hugging Face 的 CEO Clem Delangue 周一在 X 平台上发帖称,平台上的开发者已经创建了超过 500 个 R1 的"衍生"模型,总下载量达到 250 万次——是官方 R1 下载量的五倍。
R1 也有其局限性。作为一个中国模型,它需要接受中国互联网监管机构的审查,以确保其回应"体现社会主义核心价值观"。例如,R1 不会回答关于天安门广场或台湾自治的问题。
许多中国 AI 系统,包括其他推理模型,都会回避可能引起国内监管机构不满的话题,如对习近平政权的推测。
R1 的发布恰逢即将卸任的拜登政府提出对中国企业实施更严格的 AI 技术出口规则和限制。中国公司已经被禁止购买先进的 AI 芯片,如果新规则按原文生效,公司将面临更严格的半导体技术和模型限制。
在上周的一份政策文件中,OpenAI 敦促美国政府支持美国 AI 的发展,以免中国模型在能力上赶上或超越它们。在接受 The Information 采访时,OpenAI 的政策副总裁 Chris Lehane 特别指出 DeepSeek 的母公司 High Flyer Capital Management 是一个特别值得关注的机构。
到目前为止,至少有三家中国实验室——DeepSeek、阿里巴巴和 Moonshot AI 旗下的 Kimi——声称他们的模型可以与 o1 匹敌。(值得注意的是,DeepSeek 是最早的——它在 11 月底宣布了 R1 的预览版。)乔治梅森大学的 AI 研究员 Dean Ball 在 X 平台上发帖称,这一趋势表明中国 AI 实验室将继续保持"快速跟随者"的角色。
Ball 写道:"DeepSeek 精简模型的出色表现意味着非常强大的推理器将继续广泛传播,并可以在本地硬件上运行,远离任何自上而下的控制机制的监视。"
好文章,需要你的鼓励
Salesforce研究团队发布开源工具包MCPEval,基于模型上下文协议(MCP)架构评估AI智能体工具使用性能。该工具突破传统静态测试局限,通过全自动化流程收集详细任务轨迹和协议交互数据,为智能体行为提供前所未有的可视化分析。MCPEval能快速评估MCP工具和服务器,生成综合评估报告,为企业智能体部署提供可操作的改进建议。
清华大学团队推出AnyCap项目,通过轻量级"即插即用"框架解决多模态AI字幕生成缺乏个性化控制的问题。该项目包含模型、数据集和评估基准,能让现有AI系统根据用户需求生成定制化字幕,在不重训基础模型的情况下显著提升控制能力,为AI内容创作的个性化发展奠定基础。
月之暗面Kimi K2技术报告:解读万亿参数的智能体模型(含K2与DeepSeek R1对比)
耶鲁大学团队开发了全球首个AI科学实验设计评估系统ABGEN,测试了18个先进AI模型设计消融实验的能力。研究发现最好的AI系统得分4.11分,仍低于人类专家的4.80分,但在人机协作模式下表现显著改善。研究还发现现有自动评估系统可靠性不足,建立了元评估基准ABGEN-EVAL。这项研究为AI在科学研究中的应用提供了重要评估框架。