Snowflake Inc. 今天宣布,它正在将一项技术整合到其托管的大语言模型中,据称这项技术可以显著降低人工智能推理的成本和时间。AI 推理是指使用经过训练的模型基于新的输入数据进行预测或生成输出。
这项名为 SwiftKV 的技术是由 Snowflake AI Research 开发并开源的大语言模型优化技术。它通过复用早期层的隐藏状态信息来提高推理过程的效率,从而避免重复计算后续层的键值缓存。
键值缓存就像语言模型的记忆快捷方式。它们存储输入文本的重要信息,这样模型在生成或处理更多文本时就不必每次都重新计算。这使得模型运行更快、更高效。
Snowflake 表示,与不使用 SwiftKV 相比,这项技术可以提高大语言模型推理吞吐量 50%,并将开源的 Llama 3.3 70B 和 Llama 3.1 405B 模型的推理成本降低了高达 75%。
该公司最初将这项技术与虚拟大语言模型(一种涵盖端到端推理的类似技术)集成,并在这两个 Llama 模型中提供。同样的优化也将添加到 Snowflake Cortex AI 中的其他模型系列中。Snowflake Cortex AI 是 Snowflake 数据云平台的一个功能,使企业能够直接在 Snowflake 中构建、部署和扩展 AI 和机器学习模型。不过,Snowflake 没有具体说明支持其他模型的时间表。
通过避免重复计算,SwiftKV 减少了内存使用和计算开销,实现了更快速和更高效的解码,特别是在实时 AI 应用中的自回归任务。这些任务涉及一次生成一个 token(一个词或词的一部分),每个词都是基于之前生成的词来预测的。这个过程通常用于聊天机器人、实时翻译和文本生成等对速度要求较高的应用中。
该公司表示,SwiftKV 的性能提升建立在大部分计算资源在输入或提示阶段被消耗的假设之上。许多业务任务使用长问题并生成短答案,这意味着大部分计算能力都用于解释提示。Snowflake 在其工程博客上发布的分布图显示,典型的 Snowflake 客户工作负载中输入 token 是输出 token 的 10 倍。
Snowflake 的 AI 研究团队负责人兼杰出软件工程师 Yuxiong He 表示:"SwiftKV 不区分输入和输出。当我们启用 SwiftKV 时,模型重新布线同时发生在输入处理和输出生成过程中。我们仅在输入处理(也就是预填充计算)上实现计算减少。"
SwiftKV 通过重用已完成的工作而不是重复相同的计算来节省时间,将额外步骤减少一半,同时保持准确性的最小损失。它还使用了一种称为"自蒸馏"的技巧来确保记住所需的一切,因此答案质量不会改变。在基准测试中,Snowflake 表示准确率下降不到一个百分点。
He 表示:"两者之间存在很小的质量差距,但如果客户特别关注这一领域,他们可以选择使用 Cortex AI 中的基础 Llama 模型。"
Snowflake 表示,这项技术能够在多种用例中实现性能优化。它提高了非结构化文本处理任务(如摘要、翻译和情感分析)的吞吐量。在对延迟敏感的场景中,如聊天机器人或 AI 副驾驶,SwiftKV 将生成首个 token 的时间(即模型生成并返回第一个输出所需的时间)减少了高达 50%。
好文章,需要你的鼓励
当前企业面临引入AI的机遇与挑战。管理层需要了解机器学习算法基础,包括线性回归、神经网络等核心技术。专家建议从小规模试点开始,优先选择高影响用例,投资数据治理,提升员工技能。对于影子IT现象,应将其视为机会而非问题,建立治理流程将有效工具正式化。成功的AI采用需要明确目标、跨部门协作、变革管理和持续学习社区建设。
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
美国垃圾收集行业2024年创收690亿美元,近18万辆垃圾车每周运营六至七天,每日停靠超千次。设备故障成为行业最大隐性成本,每辆车年均故障费用超5000美元。AI技术通过实时监控传感器数据,能提前数周预测故障,优化零部件库存管理,减少重复维修。车队报告显示,预测性维护每辆车年节省高达2500美元,显著提升运营效率和服务可靠性。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。