Snowflake Inc. 今天宣布,它正在将一项技术整合到其托管的大语言模型中,据称这项技术可以显著降低人工智能推理的成本和时间。AI 推理是指使用经过训练的模型基于新的输入数据进行预测或生成输出。
这项名为 SwiftKV 的技术是由 Snowflake AI Research 开发并开源的大语言模型优化技术。它通过复用早期层的隐藏状态信息来提高推理过程的效率,从而避免重复计算后续层的键值缓存。
键值缓存就像语言模型的记忆快捷方式。它们存储输入文本的重要信息,这样模型在生成或处理更多文本时就不必每次都重新计算。这使得模型运行更快、更高效。
Snowflake 表示,与不使用 SwiftKV 相比,这项技术可以提高大语言模型推理吞吐量 50%,并将开源的 Llama 3.3 70B 和 Llama 3.1 405B 模型的推理成本降低了高达 75%。
该公司最初将这项技术与虚拟大语言模型(一种涵盖端到端推理的类似技术)集成,并在这两个 Llama 模型中提供。同样的优化也将添加到 Snowflake Cortex AI 中的其他模型系列中。Snowflake Cortex AI 是 Snowflake 数据云平台的一个功能,使企业能够直接在 Snowflake 中构建、部署和扩展 AI 和机器学习模型。不过,Snowflake 没有具体说明支持其他模型的时间表。
通过避免重复计算,SwiftKV 减少了内存使用和计算开销,实现了更快速和更高效的解码,特别是在实时 AI 应用中的自回归任务。这些任务涉及一次生成一个 token(一个词或词的一部分),每个词都是基于之前生成的词来预测的。这个过程通常用于聊天机器人、实时翻译和文本生成等对速度要求较高的应用中。
该公司表示,SwiftKV 的性能提升建立在大部分计算资源在输入或提示阶段被消耗的假设之上。许多业务任务使用长问题并生成短答案,这意味着大部分计算能力都用于解释提示。Snowflake 在其工程博客上发布的分布图显示,典型的 Snowflake 客户工作负载中输入 token 是输出 token 的 10 倍。
Snowflake 的 AI 研究团队负责人兼杰出软件工程师 Yuxiong He 表示:"SwiftKV 不区分输入和输出。当我们启用 SwiftKV 时,模型重新布线同时发生在输入处理和输出生成过程中。我们仅在输入处理(也就是预填充计算)上实现计算减少。"
SwiftKV 通过重用已完成的工作而不是重复相同的计算来节省时间,将额外步骤减少一半,同时保持准确性的最小损失。它还使用了一种称为"自蒸馏"的技巧来确保记住所需的一切,因此答案质量不会改变。在基准测试中,Snowflake 表示准确率下降不到一个百分点。
He 表示:"两者之间存在很小的质量差距,但如果客户特别关注这一领域,他们可以选择使用 Cortex AI 中的基础 Llama 模型。"
Snowflake 表示,这项技术能够在多种用例中实现性能优化。它提高了非结构化文本处理任务(如摘要、翻译和情感分析)的吞吐量。在对延迟敏感的场景中,如聊天机器人或 AI 副驾驶,SwiftKV 将生成首个 token 的时间(即模型生成并返回第一个输出所需的时间)减少了高达 50%。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。