在人工智能领域,有一种名为检索增强生成(RAG)的方法正在成为帮助模型获得精准结果的关键途径。
你可以说这就像巧克力和花生酱一样——两种美味的食物搭配在一起会更加美味。
或者你也可以用更技术性的方式来描述它。本质上,检索增强生成是指在大语言模型应用其自身训练数据和知识来完成任务时,为其添加应该了解的额外信息。
GeeksforGeeks的专家是这样解释的:
"在传统的大语言模型中,模型仅基于其训练数据生成回复,这些数据可能不包含最新信息或特定任务所需的具体细节。RAG通过整合检索机制来解决这一局限性,允许模型实时访问外部数据库或文档。"
然后他们提供了一个包含"数据块"和其他组件的流程图,展示了这种方法的工作原理。
考虑一下这在实践中是如何工作的——例如,你可以给聊天机器人提供一系列关于你业务的白皮书,然后询问有关你商业模式的问题。或者在个人层面,如果你希望AI更好地理解你,你可以向它提供个人文档,如日记记录或你过去的文章,以帮助它更好地了解你这个人。
从广义上说,你可以认为RAG涉及添加任何不在原始训练集中的内容。这可能是出于细节、时效性或用途的考虑,或者仅仅是为了帮助按你希望的方式定向结果。
直击要点
我很喜欢这个观点——
在Learn By Building AI网站上,比尔·钱伯斯(Bill Chambers)解释说RAG有一种简单的方法。
首先,他将其与他在Facebook发现的这段描述进行对比:
"构建一个能够研究和情境化的模型更具挑战性,但这对未来的进步至关重要。我们最近在检索增强生成(RAG)架构方面取得了重大进展,这是一个端到端可微分模型,结合了信息检索组件(Facebook AI的密集段落检索系统)和序列到序列生成器(我们的双向自回归Transformer[BART]模型)。RAG可以在知识密集型下游任务上进行微调,与最大的预训练序列到序列语言模型相比,能够达到最先进的结果。与这些预训练模型不同,RAG的内部知识可以轻松更改甚至即时补充,使研究人员和工程师能够控制RAG知道什么、不知道什么,而无需浪费时间或计算能力重新训练整个模型。"
天哪...
然后钱伯斯提供了一个简洁的小图,显示"文档语料库"通过用户输入连接到大语言模型。
这对我来说很有意义:RAG意味着添加特定的信息资源!当然,有技术细节,但我认为这个教程在分解这个概念方面做得很好,所以这是任何想要了解更多关于它实际工作原理的人的另一个资源。
使用RAG
我还想参考微软AI项目高级总监索达拉拉詹·斯里尼瓦桑(Soundararajan Srinivasan)和他的同事、微软高级应用科学家瑞什米·戈什(Reshmi Ghosh)在四月份"想象付诸行动"活动上的技术演讲,他们讨论了RAG的实际应用。
使用"知识存储"、"向量数据库"、"编排器"和"元提示"等术语,斯里尼瓦桑介绍了这些系统如何工作,说它们帮助我们在上下文中理解AI的局限性。
"上下文"也是一个重要术语,因为正如他所描述的,更大的上下文窗口增加了能力,可能具有更低的内存占用。
演讲者谈到使用RAG的其他一些原因包括:
结合知识和推理
民主化模型使用
提高时间资源效率
戈什随后谈到了我们如何理解模型是否选择在其处理中使用RAG信息。
"你有所有这些不同的上下文与查询一起发送,告诉模型'嘿,这是你可能知道也可能不知道的外部知识',"她说。
"当我们使用大语言模型以及像llama和phi这样的小语言模型设计系统时,我们基本上发现,如果你可以通过分割数据点而不是微调来发送上下文,你仍然会以准确的定性方式获得事实查询的答案。"
戈什还提到了多模态性。
"你基本上可以拥有包含图像、语音笔记、声音或任何类型音乐笔记的数据库,你仍然可以围绕它构建AI应用程序并获得同样的收益,因为现在你知道模型倾向于利用RAG上下文并减少对内部记忆的依赖,这也为正在讨论的所有新框架打开了新的大门。"
她补充说,这对于MCP(模型上下文协议)和A2A(智能体到智能体系统)等协议很有用。
这在我们进入新界面时代时很重要,我们不再仅限于与AI伙伴打字交流。我们现在有了语音,未来还会有更多,包括足够生动的图像和视频生成,可以取代基于文本的模型。
有些人会说我们正在进入一个梦想的世界,在这里很多以前不可能的事情现在都成为可能。
RAG可能是确保我们能够掌控方向并提供我们所寻求的结果类型的组件之一。它有助于你可能归类为数字智能系统"融合"的东西。因此,在我们继续设计更复杂的AI工具和资源时,请关注这些方法论。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。