上个月,DeepSeek 通过发布一个新的、具有竞争力的模拟推理模型,在 AI 领域掀起了轩然大波。该模型可以在 MIT 许可证下免费下载和使用。现在,该公司正准备让这个模型背后的底层代码更加透明,承诺从下周开始发布五个开源代码库。
在周四晚间的社交媒体帖子中,DeepSeek 表示,其计划的"开源周"每日发布将提供对"这些在我们在线服务中的基础模块的可见性,它们已经过文档记录、部署和生产环境的实战测试。作为开源社区的一份子,我们相信每一行共享的代码都将成为推动我们共同前进的动力。"
虽然 DeepSeek 对将要分享的代码类型并未具体说明,但其配套的 GitHub 页面 "DeepSeek Open Infra" 承诺即将发布的内容将涵盖"推动我们这个小小月球计划前进的代码",并"完全透明地分享我们微小但真诚的进展"。该页面还引用了一份 2024 年的论文,详细介绍了 DeepSeek 的训练架构和软件栈。
这一举措可能会加大 DeepSeek 与 OpenAI 之间的差异,后者的市场领先产品 ChatGPT 模型仍然完全专有,其内部运作对外部用户和研究人员来说依然不透明。尽管 DeepSeek 的移动应用因隐私问题面临国际限制,但这次开源发布可能有助于提供更广泛和更便捷的访问途径。
开放究竟有多开放?
DeepSeek 最初的模型发布已经包含了所谓的"开放权重"访问权限,可以访问代表模型数十亿模拟神经元之间连接强度的底层数据。这种发布方式允许终端用户通过额外的训练数据轻松微调这些模型参数,以满足更具针对性的目的。
包括 Google 的 Gemma、Meta 的 Llama,甚至 OpenAI 早期发布的 GPT2 等主要模型都采用了这种开放权重结构。这些模型通常也会发布开源代码,涵盖响应查询时运行的推理时间指令。
目前尚不清楚 DeepSeek 计划的开源发布是否也将包括团队在训练模型时使用的代码。这种训练代码对于满足开源研究所 (OSI) 去年最终确定的"开源 AI"正式定义来说是必需的。根据 OSI 的标准,一个真正开放的 AI 还必须包括"关于用于训练系统的数据的充分详细信息,使得技术熟练的人能够构建一个实质上等效的系统"。
完全开源发布(包括训练代码)可以让研究人员更清楚地了解模型在核心层面是如何工作的,可能揭示出模型架构而非参数权重固有的偏见或局限性。完整的源代码发布还可以让人们更容易从头开始复制模型,如有必要,甚至可以使用全新的训练数据。
Elon Musk 的 xAI 在今年 3 月发布了 Grok 1 的开源推理时间代码版本,最近还承诺在未来几周内发布 Grok 2 的开源版本。但该公司表示,最近发布的 Grok 3 将暂时保持专有状态,仅供 X Premium 订阅用户使用。
本月早些时候,HuggingFace 在 OpenAI 发布专有的 "Deep Research" 功能几小时后就发布了其开源克隆版本。HuggingFace 的 Aymeric Roucher 告诉 Ars Technica,该克隆版本在发布时使用闭源权重模型"仅仅是因为它运行良好",但源代码的"开放管道"可以根据需要轻松切换到任何开放权重模型。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。