众所周知,AI成本高昂,但魏兹曼科学研究所、英特尔实验室和d-Matrix的研究人员开发的一套新算法,只需几行代码就能显著降低大语言模型的服务成本。
本周在国际机器学习会议上发表的这项研究详述了这些算法,为推测解码提供了新的解决方案。研究人员表示,该算法能将Token生成速率提升高达2.8倍,同时无需专门的草稿模型。
推测解码并非新概念。它通过使用小型"草稿"模型来预测更大、更慢但质量更高的"目标"模型的输出。
如果草稿模型能成功预测序列中的下四个Token,那么大模型就无需生成这四个Token,从而获得速度提升。如果预测错误,大模型会丢弃草稿Token并自行生成新的。这一机制确保了整个过程无损——无需牺牲质量来获得速度提升。
这一概念类似于现代智能手机的预测文本功能。当你打字时,它试图猜测你接下来要说什么。猜对时,你可以一键完成句子;猜错时,你只需自己打出来。
实际应用中,推测解码可以有效地将Token生成速度提升2倍甚至3倍。但要在相同计算量下获得3倍的Token数量,关键在于找到兼容的草稿模型。
推测解码采用面临的挑战之一是两个模型的词汇表必须匹配。除非运行的模型恰好有较小的变体,否则利用推测解码往往需要训练专门的草稿模型。更糟糕的是,每当新的目标模型(比如新版本的Llama)发布时,这些专门的草稿模型都必须重新训练。
**通用草稿模型**
这些算法旨在克服这一限制,让任何模型都能充当草稿,无论词汇表是否相同。
为此,研究人员探索了三种不同的方法。第一种叫做Token级交集(TLI),本质上相当于对两个模型的词汇表运行差异比较,找出草稿模型应该避免的词汇。这样草稿模型只预测目标模型词汇表中也存在的Token。
只要模型词汇表有足够的重叠,草稿模型预测的接受率就会保持很高。使用这种方法,研究人员观察到比传统自回归解码速度提升1.7倍,而传统方法每次生成Token时都需要从内存中读取全部模型权重。
第二种算法叫做字符串级精确匹配(SLEM),更像是草稿模型和目标模型分词器之间的翻译层。
分词器是大语言模型将单词、标点符号和其他表达式分解成可理解块的方式。OpenAI有一个很好的演示展示了这个过程。
使用SLEM算法的草稿预测会生成完整的Token字符串,然后转换为两个模型都能理解的中间格式(这里是纯文本)。输出随后由目标模型重新分词以供审查。
魏兹曼研究所博士生Nadav Timor告诉El Reg,这种方法"用精确的字符串匹配替换了推测解码的标准验证方法,这是一种更严格的验证方法。"
这给团队带来了某些挑战,因为分词器处理文本的差异可能引入几乎无法察觉的变化。"例如,如果你有前导空格,它可能会压缩它们,"他解释道。
这听起来可能不是什么大问题,但字符串必须完全匹配,否则会被拒绝,任何潜在的速度提升都会丢失。为了解决这个问题,SLEM引入了启发式函数来帮助平滑差异并提高接受率。至少在摘要和编程等长上下文任务中,改进效果显著,在团队测试中提升高达2.8倍。
**对开发者来说只需修改一行代码**
Timor强调,这些算法都不是理论性的。SLEM和TLI都已经成为Hugging Face Transformers库的一部分,这是目前大规模运行大语言模型最广泛部署的框架之一。"对开发者来说只需修改一行代码,"他说。
选择使用哪种算法取决于你具体如何使用这些模型,Timor说。"有时第一种效果更好,有时第二种更好。你必须在你的具体配置上进行测试。"
在某些情况下,训练专门的草稿模型可能仍然值得。但正如Timor指出的,研究人员开发的算法显著降低了推测解码的采用门槛。
**更多研究有待进行**
Timor对推测解码的研究并未止步于此。如前所述,团队开发了三种算法。
第三种叫做字符串级拒绝采样(SLRS),旨在解决基于字符串验证方法相对较差的接受率问题。
"它使用一个通用的草稿模型,考虑字符串而不是Token的概率,我们证明了它能提高接受率,"Timor说。"问题是在运行时计算这个通用草稿模型在计算上很昂贵,所以你必须重新设计词汇表才能让这个算法实用。"
团队还在寻找解决模型词汇表爆炸性增长问题的方法,并让草稿模型运行得更快。
"词汇表正在变得庞大。比如Llama 4有大约20万个Token,"Timor说,并补充说其中大部分实际上并未使用,却增加了延迟。"我们目前正在努力缩小词汇表。"
他说,这项研究正在进行中。
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。