来自斯坦福大学和华盛顿大学的研究人员开发出了一个大语言模型,在某些任务上的表现优于 OpenAI 的 o1-preview,且开发成本仅为后者的一小部分。
研究团队于上周五发表了相关论文,TechCrunch 今天对该项目进行了报道。这个名为 s1-32B 的算法已在 GitHub 上开源。
去年 9 月,OpenAI 推出了一个专注于推理能力的大语言模型 o1-preview。该算法的主要创新在于采用了一项称为测试时计算 (test-time compute) 的技术,在 s1-32B 模型中则被称为测试时扩展 (test-time scaling)。这项技术通过增加生成回答时的时间和硬件资源来提升大语言模型的输出质量。
在 o1-preview 发布后,多个研究团队着手复制测试时扩展技术。s1-32B 的开发者在论文中表示,他们的模型是首个公开成功复制"明确测试时扩展行为"的尝试。
研究人员在论文中写道:"我们的 s1-32B 模型展现出测试时扩展特性。此外,s1-32B 是样本效率最高的推理模型,其性能超过了 OpenAI 的 o1-preview 等闭源模型。"
项目的起点是阿里巴巴集团去年发布的开源大语言模型 Qwen2.5-32B-Instruct。研究人员使用包含 1,000 个提示词和 AI 生成答案的数据集对其进行定制,从而创建了 s1-32B。这些答案来自 Google LLC 的 Gemini Thinking Experimental LLM。
Gemini Thinking Experimental 不仅会回答用户的提示,还会展示得出答案的思考过程。该模型会用自然语言总结思考过程的每个步骤。这些总结与 1,000 个样本提示词和相应的 AI 生成答案一起被添加到 s1-32B 的训练数据集中。
研究人员通过多个步骤创建数据集。首先,他们从公开来源收集了 59,029 个涵盖数学、物理和化学等主题的问题。然后删除了包含错误的问题。随后,研究人员再次筛选数据集,只保留了 1,000 个最具挑战性的问题。
在用该数据集训练 s1-32B 后,研究人员应用了一种名为预算强制 (budget forcing) 的新机器学习方法。该方法通过向大语言模型提供提示,指示它比平常花更多时间思考问题,或相反地缩短推理过程。研究人员表示,这种方法解决了在大语言模型中实现测试时扩展的两个主要障碍。
第一个挑战是大语言模型有时花费太少时间思考任务,从而导致错误。当 s1-32B 处理查询的时间不够时,预算强制通过输入"wait"来解决这个问题。根据 s1-32B 的创建者说法,这个提示会让模型增强其推理工作流程。
在一次测试中,s1-32B 试图显示一个错误答案。在研究人员指示它等待后,模型发现了错误并生成了正确答案。
研究人员的预算强制方法解决的第二个问题是大语言模型有时花费太多时间思考提示。这可能会降低输出质量。例如,大语言模型可能找到正确答案,但在后续处理步骤中改变它。预算强制通过要求大语言模型跳过这些后续处理步骤来避免这个问题。
研究人员在 MATH 和 AIME24 数学基准测试中将 s1-32B 与 o1-preview 进行了比较。前者的得分比 OpenAI 的模型高出最多 27%。在另一个涉及数学问题的测试中,s1-32B 成功利用测试时计算将得分从 50% 提高到 57%。
预算强制使 s1-32B 不仅在某些任务上超越 o-1,而且成本更低。参与该模型开发的研究人员之一 Niklas Muennighoff 今天告诉 TechCrunch,开发成本约为 20 美元的硬件费用。研究人员在论文中详细说明,s1-32B 使用 16 块 Nvidia Corp. 的 H100 显卡训练了 26 分钟。
好文章,需要你的鼓励
亚马逊第四季度业绩超预期,但云计算业务收入未达目标,且下季度指引疲软。公司大幅增加AI投资,资本支出翻倍至278亿美元。尽管整体利润率提升,但云业务增速落后于主要竞争对手,投资者对此表示担忧。亚马逊计划在2025财年将资本支出提高至1000亿美元,主要用于支持AWS的AI服务和云基础设施。
尽管AI产业投入巨资开发技术并亟需收回成本,但许多商业领导者仍对AI的价值持怀疑态度。据Lenovo委托的研究显示,量化AI投资回报率仍是其应用的最大障碍之一。调查发现,37%的决策者对签署AI采购协议持保留态度,凸显了AI投资与其实际价值之间的矛盾。
Broadcom收购VMware后,企业虚拟化市场正经历巨变。随着VMware价格上涨和政策收紧,许多客户正寻求替代方案。本文探讨了当前形势下的主要选择,包括公有云、Microsoft Hyper-V、Red Hat OpenShift和Nutanix等。企业需权衡成本、复杂性和长期战略,以选择最佳路径。