Rutgers University、蚂蚁集团和 Salesforce Research 的研究人员提出了一个新的框架,通过整合环境信息并创建自动链接的记忆来构建复杂结构,使 AI 代理能够处理更复杂的任务。
这个名为 A-MEM 的框架利用大语言模型 (LLM) 和向量嵌入从代理的交互中提取有用信息,并创建可以高效检索和使用的记忆表示。对于希望将 AI 代理整合到工作流程和应用程序中的企业来说,拥有可靠的记忆管理系统可以带来显著差异。
为什么 LLM 的记忆很重要
记忆在 LLM 和代理应用中至关重要,因为它能够实现工具和用户之间的长期交互。然而,当前的记忆系统要么效率低下,要么基于预定义模式,可能无法适应应用程序的变化性质及其面临的交互。
研究人员写道:"这种刚性结构,加上固定的代理工作流程,严重限制了这些系统在新环境中的泛化能力和长期交互中的有效性。随着 LLM 代理处理更复杂、更开放式的任务,这个挑战变得越来越关键,因为灵活的知识组织和持续适应是必不可少的。"
A-MEM 详解
据研究人员介绍,A-MEM 引入了一种代理记忆架构,为 LLM 代理实现自主和灵活的记忆管理。
每当 LLM 代理与其环境交互时(无论是访问工具还是与用户交换消息),A-MEM 都会生成"结构化记忆笔记",这些笔记捕获显式信息和元数据,如时间、上下文描述、相关关键词和链接记忆。部分细节是由 LLM 在检查交互并创建语义组件时生成的。
创建记忆后,使用编码器模型计算其所有组件的嵌入值。LLM 生成的语义组件和嵌入的组合既提供了人类可解释的上下文,又提供了通过相似性搜索进行高效检索的工具。
随时间构建记忆
A-MEM 框架的一个有趣组件是无需预定义规则就能链接不同记忆笔记的机制。对于每个新的记忆笔记,A-MEM 根据嵌入值的相似性识别最接近的记忆。然后 LLM 分析检索到的候选项的完整内容,选择最适合链接到新记忆的内容。
研究人员写道:"通过使用基于嵌入的检索作为初始过滤器,我们实现了高效的可扩展性,同时保持语义相关性。A-MEM 可以在大型记忆集合中快速识别潜在连接,而无需进行详尽比较。更重要的是,LLM 驱动的分析允许对关系进行细致理解,超越简单的相似性度量。"
在为新记忆创建链接后,A-MEM 根据检索到的记忆的文本信息及其与新记忆的关系进行更新。随着时间推移添加更多记忆,这个过程完善了系统的知识结构,使其能够在记忆中发现更高阶的模式和概念。
在每次交互中,A-MEM 使用上下文感知记忆检索为代理提供相关的历史信息。给定新的提示,A-MEM 首先使用与记忆笔记相同的机制计算其嵌入值。系统使用这个嵌入从记忆存储中检索最相关的记忆,并用上下文信息增强原始提示,帮助代理更好地理解和响应当前交互。
研究人员写道:"检索到的上下文通过将当前交互与存储在记忆系统中的相关过去经验和知识连接起来,丰富了代理的推理过程。"
A-MEM 实践
研究人员在 LoCoMo(一个跨越多个会话的超长对话数据集)上测试了 A-MEM。LoCoMo 包含具有挑战性的任务,如需要跨多个聊天会话综合信息的多跳问题,以及需要理解时间相关信息的推理问题。该数据集还包含需要将对话中的上下文信息与外部知识整合的知识问题。
实验表明,A-MEM 在大多数任务类别中都优于其他基线代理记忆技术,特别是在使用开源模型时。值得注意的是,研究人员表示,A-MEM 在降低推理成本的同时实现了更优的性能,回答问题时所需的 token 数量最多减少了 10 倍。
随着 LLM 代理被整合到跨不同领域和子系统的复杂企业工作流程中,有效的记忆管理正成为核心需求。A-MEM(其代码可在 GitHub 上获取)是支持企业构建具有增强记忆功能的 LLM 代理的框架之一。
好文章,需要你的鼓励
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。