一支来自 Zoom Communications 的研究团队开发出了一项突破性技术,这项技术可能会大幅降低人工智能系统在处理复杂推理问题时所需的成本和计算资源,有望从根本上改变企业大规模部署 AI 的方式。
这种名为 Chain of Draft (CoD) 的方法使大语言模型能够用最少的文字来解决问题——仅使用当前方法所需文本量的 7.6%,同时保持或甚至提高准确性。这项研究成果已于上周发表在研究资料库 arXiv 上。
"通过减少冗长表述并专注于关键见解,CoD 在各种推理任务中仅使用 7.6% 的 token 就能达到或超越 CoT 的准确性,显著降低了成本和延迟,"由 Zoom 研究员 Silei Xu 领导的作者团队写道。
Chain of Draft (红色) 在四个推理任务中使用显著更少的 token 的同时,保持或超越了 Chain of Thought (黄色) 的准确性,展示了简洁的 AI 推理如何在不牺牲性能的情况下降低成本。(来源:arxiv.org)
如何通过"少即是多"在不牺牲准确性的情况下改变 AI 推理
Chain of Draft 的灵感来自人类解决复杂问题的方式。在解决数学问题或逻辑难题时,人们通常只会以简略的形式记下关键信息,而不是详细阐述每个细节。
研究人员在论文中解释道:"在解决复杂任务时——无论是解决数学问题、写作还是编程——我们往往只记录能帮助我们取得进展的关键信息。通过模仿这种行为,大语言模型可以专注于推进解决方案,而不会产生冗长推理的开销。"
研究团队在多个基准测试中验证了他们的方法,包括算术推理 (GSM8k)、常识推理 (日期理解和体育理解) 以及符号推理 (硬币翻转任务)。
在一个涉及 Claude 3.5 Sonnet 处理体育相关问题的显著案例中,Chain of Draft 方法将平均输出从 189.4 个 token 减少到仅 14.3 个 token——减少了 92.4%——同时准确率从 93.2% 提高到 97.3%。
降低企业 AI 成本:简洁机器推理的商业价值
AI 研究员 Ajith Vallath Prabhakar 在分析该论文时指出:"对于每月处理 100 万次推理查询的企业而言,CoD 可以将成本从 3,800 美元 (CoT) 降低到 760 美元,每月节省超过 3,000 美元。"
这项研究在企业 AI 部署的关键时期应运而生。随着企业increasingly将复杂的 AI 系统整合到运营中,计算成本和响应时间已成为广泛应用的重要障碍。
2022 年推出的 Chain-of-Thought (CoT) 等当前最先进的推理技术,通过将问题分解为逐步推理,大大提高了 AI 解决复杂问题的能力。但这种方法会生成冗长的解释,消耗大量计算资源并增加响应延迟。
Prabhakar 表示:"CoT 提示的冗长特性导致了大量的计算开销、增加的延迟和更高的运营支出。"
实施 AI 效率:无需重新训练即可立即产生业务影响
对企业而言,Chain of Draft 的特别之处在于其实施的简单性。与许多需要昂贵的模型重训练或架构更改的 AI 进展不同,CoD 可以通过简单的提示修改立即在现有模型上部署。
Prabhakar 解释说:"已经使用 CoT 的组织可以通过简单的提示修改切换到 CoD。"
这项技术对于对延迟敏感的应用尤其有价值,如实时客户支持、移动 AI、教育工具和金融服务,在这些领域即使很小的延迟也会显著影响用户体验。
行业专家认为,其影响不仅限于成本节省。通过使高级 AI 推理变得更容易获得和负担得起,Chain of Draft 可能会让较小的组织和资源受限的环境也能使用复杂的 AI 功能。
随着 AI 系统的不断发展,像 Chain of Draft 这样的技术凸显了效率与原始能力并重的趋势。对于在快速变化的 AI 领域中航行的企业来说,这些优化可能与底层模型本身的改进一样有价值。
"随着 AI 模型继续发展,优化推理效率将与提高其原始能力一样重要,"Prabhakar 总结道。
该研究的代码和数据已在 GitHub 上公开,允许组织在自己的 AI 系统中实施和测试这种方法。
好文章,需要你的鼓励
一加正式推出AI功能Plus Mind和Mind Space,将率先在一加13和13R上线。Plus Mind可保存、建议、存储和搜索屏幕内容,并将信息整理到Mind Space应用中。该功能可通过专用按键或手势激活,能自动创建日历条目并提供AI搜索功能。一加还计划推出三阶段AI战略,包括集成大语言模型和个人助手功能,同时将推出AI语音转录、通话助手和照片优化等工具。
北航团队推出Easy Dataset框架,通过直观的图形界面和角色驱动的生成方法,让普通用户能够轻松将各种格式文档转换为高质量的AI训练数据。该工具集成了智能文档解析、混合分块策略和个性化问答生成功能,在金融领域实验中显著提升了AI模型的专业表现,同时保持通用能力。项目已开源并获得超过9000颗GitHub星标。
预计到2035年,数据中心用电需求将增长一倍以上,达到440TWh,相当于整个加利福尼亚州的用电量。AI工作负载预计将占2030年数据中心需求的50-70%。传统冷却系统电机存在功率浪费问题,通常在30-50%负载下运行时效率急剧下降。采用高效率曲线平坦的适配电机可显著降低冷却系统功耗,某大型数据中心通过优化电机配置减少了近4MW冷却功耗,为13500台AI服务器腾出空间,年增收入900万美元。
卢森堡计算机事件响应中心开发的VLAI系统,基于RoBERTa模型,能够通过阅读漏洞描述自动判断危险等级。该系统在60万个真实漏洞数据上训练,准确率达82.8%,已集成到实际安全服务中。研究采用开源方式,为网络安全专家提供快速漏洞风险评估工具,有效解决了官方评分发布前的安全决策难题。