中国 AI 实验室 DeepSeek 发布了其所谓推理模型 DeepSeek-R1 的开源版本,声称在某些 AI 基准测试上表现与 OpenAI 的 o1 相当。
R1 在 AI 开发平台 Hugging Face 上以 MIT 许可证发布,这意味着它可以不受限制地用于商业用途。据 DeepSeek 称,R1 在 AIME、MATH-500 和 SWE-bench Verified 基准测试上超越了 o1。AIME 使用其他模型来评估模型的性能,而 MATH-500 是一系列应用题集合。SWE-bench Verified 则专注于编程任务。
作为一个推理模型,R1 能够有效地进行自我事实核查,这有助于避免通常让模型陷入困境的一些陷阱。与典型的非推理模型相比,推理模型需要更长的时间(通常多几秒到几分钟)来得出解决方案。好处是它们在物理、科学和数学等领域往往更可靠。
DeepSeek 在一份技术报告中透露,R1 包含 6710 亿个参数。参数大致对应于模型的问题解决能力,具有更多参数的模型通常比具有较少参数的模型表现更好。
确实,6710 亿参数规模庞大,但 DeepSeek 同时发布了 R1 的"精简"版本,参数规模从 15 亿到 700 亿不等。最小的版本可以在笔记本电脑上运行。至于完整版 R1,虽然需要更强大的硬件,但可以通过 DeepSeek 的 API 使用,价格比 OpenAI 的 o1 便宜 90%-95%。
Hugging Face 的 CEO Clem Delangue 周一在 X 平台上发帖称,平台上的开发者已经创建了超过 500 个 R1 的"衍生"模型,总下载量达到 250 万次——是官方 R1 下载量的五倍。
R1 也有其局限性。作为一个中国模型,它需要接受中国互联网监管机构的审查,以确保其回应"体现社会主义核心价值观"。例如,R1 不会回答关于天安门广场或台湾自治的问题。
许多中国 AI 系统,包括其他推理模型,都会回避可能引起国内监管机构不满的话题,如对习近平政权的推测。
R1 的发布恰逢即将卸任的拜登政府提出对中国企业实施更严格的 AI 技术出口规则和限制。中国公司已经被禁止购买先进的 AI 芯片,如果新规则按原文生效,公司将面临更严格的半导体技术和模型限制。
在上周的一份政策文件中,OpenAI 敦促美国政府支持美国 AI 的发展,以免中国模型在能力上赶上或超越它们。在接受 The Information 采访时,OpenAI 的政策副总裁 Chris Lehane 特别指出 DeepSeek 的母公司 High Flyer Capital Management 是一个特别值得关注的机构。
到目前为止,至少有三家中国实验室——DeepSeek、阿里巴巴和 Moonshot AI 旗下的 Kimi——声称他们的模型可以与 o1 匹敌。(值得注意的是,DeepSeek 是最早的——它在 11 月底宣布了 R1 的预览版。)乔治梅森大学的 AI 研究员 Dean Ball 在 X 平台上发帖称,这一趋势表明中国 AI 实验室将继续保持"快速跟随者"的角色。
Ball 写道:"DeepSeek 精简模型的出色表现意味着非常强大的推理器将继续广泛传播,并可以在本地硬件上运行,远离任何自上而下的控制机制的监视。"
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。