根据上海人工智能实验室的一项新研究表明,小型语言模型 (SLMs) 在推理任务中可以超越领先的大语言模型 (LLMs)。研究人员展示了通过使用适当的工具和测试时扩展技术,一个拥有 10 亿参数的 SLM 可以在复杂的数学基准测试中超越拥有 4050 亿参数的 LLM。
在企业寻求在不同环境和应用中使用这些新模型的情况下,部署 SLM 来处理复杂推理任务可能非常有用。
测试时扩展的解释
测试时扩展 (TTS) 是在推理过程中为 LLM 提供额外计算周期以提高其在各种任务上表现的过程。领先的推理模型,如 OpenAI o1 和 DeepSeek-R1,使用"内部 TTS",这意味着它们通过生成一长串思维链 (CoT) token 来训练"慢思考"。
另一种方法是"外部 TTS",即通过外部帮助来增强模型性能。外部 TTS 适用于将现有模型重新用于推理任务,而无需进一步微调。外部 TTS 设置通常由"策略模型"(生成答案的主要 LLM)和过程奖励模型 (PRM,用于评估策略模型答案) 组成。这两个组件通过采样或搜索方法相互配合。
最简单的设置是"N 选优",其中策略模型生成多个答案,PRM 选择一个或多个最佳答案来组成最终响应。更高级的外部 TTS 方法使用搜索。在"束搜索"中,模型将答案分解为多个步骤。
对于每个步骤,它会采样多个答案并通过 PRM 运行。然后选择一个或多个合适的候选答案并生成下一步答案。在"多样化验证树搜索" (DVTS) 中,模型生成多个答案分支以创建更多样化的候选响应集,然后将它们合成为最终答案。
选择正确的扩展策略
选择正确的 TTS 策略取决于多个因素。研究作者对不同策略模型和 PRM 如何影响 TTS 方法的效率进行了系统研究。
他们的研究表明,效率在很大程度上取决于策略和 PRM 模型。例如,对于小型策略模型,基于搜索的方法优于 N 选优。然而,对于大型策略模型,N 选优更有效,因为这些模型具有更好的推理能力,不需要奖励模型来验证推理的每个步骤。
研究还显示,正确的 TTS 策略取决于问题的难度。例如,对于参数少于 70 亿的小型策略模型,N 选优更适合简单问题,而束搜索更适合困难问题。对于介于 70 亿到 320 亿参数之间的策略模型,多样化树搜索在简单和中等问题上表现良好,束搜索最适合困难问题。但对于大型策略模型 (720 亿参数及以上),N 选优是所有难度级别的最佳方法。
为什么小型模型能够胜过大型模型
基于这些发现,开发人员可以创建计算优化的 TTS 策略,考虑策略模型、PRM 和问题难度,以最好地利用计算预算来解决推理问题。
例如,研究人员发现,使用计算优化的 TTS 策略的 Llama-3.2-3B 模型在 MATH-500 和 AIME24 这两个复杂的数学基准测试中超越了 Llama-3.1-405B。这表明当使用计算优化的 TTS 策略时,一个 SLM 可以超越一个大 135 倍的模型。
在其他实验中,他们发现使用正确的计算优化 TTS 策略,一个拥有 5 亿参数的 Qwen2.5 模型可以超越 GPT-4o。使用相同的策略,DeepSeek-R1 的 15 亿参数蒸馏版本在 MATH-500 和 AIME24 上超越了 o1-preview 和 o1-mini。
当考虑训练和推理计算预算时,研究发现使用计算优化的扩展策略,SLM 可以用少 100-1000 倍的 FLOPS 超越更大的模型。
研究人员的结果表明,计算优化的 TTS 显著增强了语言模型的推理能力。然而,随着策略模型变大,TTS 的改进逐渐减少。
研究人员写道:"这表明 TTS 的有效性直接与策略模型的推理能力相关。具体来说,对于推理能力较弱的模型,扩展测试时计算会带来显著改进,而对于推理能力强的模型,收益有限。"
该研究验证了在应用计算优化的测试时扩展方法时,SLM 可以比更大的模型表现更好。虽然这项研究侧重于数学基准测试,但研究人员计划将研究扩展到编码和化学等其他推理任务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。