来自斯坦福大学和华盛顿大学的研究人员开发出了一个大语言模型,在某些任务上的表现优于 OpenAI 的 o1-preview,且开发成本仅为后者的一小部分。
研究团队于上周五发表了相关论文,TechCrunch 今天对该项目进行了报道。这个名为 s1-32B 的算法已在 GitHub 上开源。
去年 9 月,OpenAI 推出了一个专注于推理能力的大语言模型 o1-preview。该算法的主要创新在于采用了一项称为测试时计算 (test-time compute) 的技术,在 s1-32B 模型中则被称为测试时扩展 (test-time scaling)。这项技术通过增加生成回答时的时间和硬件资源来提升大语言模型的输出质量。
在 o1-preview 发布后,多个研究团队着手复制测试时扩展技术。s1-32B 的开发者在论文中表示,他们的模型是首个公开成功复制"明确测试时扩展行为"的尝试。
研究人员在论文中写道:"我们的 s1-32B 模型展现出测试时扩展特性。此外,s1-32B 是样本效率最高的推理模型,其性能超过了 OpenAI 的 o1-preview 等闭源模型。"
项目的起点是阿里巴巴集团去年发布的开源大语言模型 Qwen2.5-32B-Instruct。研究人员使用包含 1,000 个提示词和 AI 生成答案的数据集对其进行定制,从而创建了 s1-32B。这些答案来自 Google LLC 的 Gemini Thinking Experimental LLM。
Gemini Thinking Experimental 不仅会回答用户的提示,还会展示得出答案的思考过程。该模型会用自然语言总结思考过程的每个步骤。这些总结与 1,000 个样本提示词和相应的 AI 生成答案一起被添加到 s1-32B 的训练数据集中。
研究人员通过多个步骤创建数据集。首先,他们从公开来源收集了 59,029 个涵盖数学、物理和化学等主题的问题。然后删除了包含错误的问题。随后,研究人员再次筛选数据集,只保留了 1,000 个最具挑战性的问题。
在用该数据集训练 s1-32B 后,研究人员应用了一种名为预算强制 (budget forcing) 的新机器学习方法。该方法通过向大语言模型提供提示,指示它比平常花更多时间思考问题,或相反地缩短推理过程。研究人员表示,这种方法解决了在大语言模型中实现测试时扩展的两个主要障碍。
第一个挑战是大语言模型有时花费太少时间思考任务,从而导致错误。当 s1-32B 处理查询的时间不够时,预算强制通过输入"wait"来解决这个问题。根据 s1-32B 的创建者说法,这个提示会让模型增强其推理工作流程。
在一次测试中,s1-32B 试图显示一个错误答案。在研究人员指示它等待后,模型发现了错误并生成了正确答案。
研究人员的预算强制方法解决的第二个问题是大语言模型有时花费太多时间思考提示。这可能会降低输出质量。例如,大语言模型可能找到正确答案,但在后续处理步骤中改变它。预算强制通过要求大语言模型跳过这些后续处理步骤来避免这个问题。
研究人员在 MATH 和 AIME24 数学基准测试中将 s1-32B 与 o1-preview 进行了比较。前者的得分比 OpenAI 的模型高出最多 27%。在另一个涉及数学问题的测试中,s1-32B 成功利用测试时计算将得分从 50% 提高到 57%。
预算强制使 s1-32B 不仅在某些任务上超越 o-1,而且成本更低。参与该模型开发的研究人员之一 Niklas Muennighoff 今天告诉 TechCrunch,开发成本约为 20 美元的硬件费用。研究人员在论文中详细说明,s1-32B 使用 16 块 Nvidia Corp. 的 H100 显卡训练了 26 分钟。
好文章,需要你的鼓励
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌近期悄然调整账户存储政策:新注册用户若未绑定手机号,免费存储空间将从原来的15GB缩减至5GB。用户需验证手机号后,方可获得完整的15GB空间,用于Gmail、Drive和Photos的共享使用。谷歌表示,此举旨在确保存储空间"每人仅限一份",有效防止滥用。有分析认为,存储硬件成本上升也是推动此次政策调整的重要原因之一。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。