中国 AI 实验室 DeepSeek 发布了其所谓推理模型 DeepSeek-R1 的开源版本,声称在某些 AI 基准测试上表现与 OpenAI 的 o1 相当。
R1 在 AI 开发平台 Hugging Face 上以 MIT 许可证发布,这意味着它可以不受限制地用于商业用途。据 DeepSeek 称,R1 在 AIME、MATH-500 和 SWE-bench Verified 基准测试上超越了 o1。AIME 使用其他模型来评估模型的性能,而 MATH-500 是一系列应用题集合。SWE-bench Verified 则专注于编程任务。
作为一个推理模型,R1 能够有效地进行自我事实核查,这有助于避免通常让模型陷入困境的一些陷阱。与典型的非推理模型相比,推理模型需要更长的时间(通常多几秒到几分钟)来得出解决方案。好处是它们在物理、科学和数学等领域往往更可靠。
DeepSeek 在一份技术报告中透露,R1 包含 6710 亿个参数。参数大致对应于模型的问题解决能力,具有更多参数的模型通常比具有较少参数的模型表现更好。
确实,6710 亿参数规模庞大,但 DeepSeek 同时发布了 R1 的"精简"版本,参数规模从 15 亿到 700 亿不等。最小的版本可以在笔记本电脑上运行。至于完整版 R1,虽然需要更强大的硬件,但可以通过 DeepSeek 的 API 使用,价格比 OpenAI 的 o1 便宜 90%-95%。
Hugging Face 的 CEO Clem Delangue 周一在 X 平台上发帖称,平台上的开发者已经创建了超过 500 个 R1 的"衍生"模型,总下载量达到 250 万次——是官方 R1 下载量的五倍。
R1 也有其局限性。作为一个中国模型,它需要接受中国互联网监管机构的审查,以确保其回应"体现社会主义核心价值观"。例如,R1 不会回答关于天安门广场或台湾自治的问题。
许多中国 AI 系统,包括其他推理模型,都会回避可能引起国内监管机构不满的话题,如对习近平政权的推测。
R1 的发布恰逢即将卸任的拜登政府提出对中国企业实施更严格的 AI 技术出口规则和限制。中国公司已经被禁止购买先进的 AI 芯片,如果新规则按原文生效,公司将面临更严格的半导体技术和模型限制。
在上周的一份政策文件中,OpenAI 敦促美国政府支持美国 AI 的发展,以免中国模型在能力上赶上或超越它们。在接受 The Information 采访时,OpenAI 的政策副总裁 Chris Lehane 特别指出 DeepSeek 的母公司 High Flyer Capital Management 是一个特别值得关注的机构。
到目前为止,至少有三家中国实验室——DeepSeek、阿里巴巴和 Moonshot AI 旗下的 Kimi——声称他们的模型可以与 o1 匹敌。(值得注意的是,DeepSeek 是最早的——它在 11 月底宣布了 R1 的预览版。)乔治梅森大学的 AI 研究员 Dean Ball 在 X 平台上发帖称,这一趋势表明中国 AI 实验室将继续保持"快速跟随者"的角色。
Ball 写道:"DeepSeek 精简模型的出色表现意味着非常强大的推理器将继续广泛传播,并可以在本地硬件上运行,远离任何自上而下的控制机制的监视。"
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。