人工智能服务平台提供商Aquant Inc.今日推出"检索增强对话"技术,这是一种让大型语言模型检索和呈现信息的全新方法,使AI能够像领域专家一样原生地提供指导,而不是以单一的一体化答案形式接收和呈现知识。
AI大型语言模型在面对用户提问时需要外部知识来更新其通用训练,这通常通过检索增强生成(RAG)来实现。RAG是一种从外部源检索相关信息的工作流程,能够提高准确性并减少幻觉现象。
这些工作流程可以搜索数十万份文档,检索最具上下文相关性的知识,并在大型语言模型一次性提供答案之前将这些信息呈现给它。但是否存在更好的方式将信息传递给AI和用户呢?
产品技术与实验室副总裁、检索增强对话之父Indresh Satyanarayana在接受采访时表示,RAC可以被理解为一个了解自身能力和容量的专家技术员。它帮助AI分析用户的问题,并提出后续问题来填补知识空白,生成定制化解决方案。
"RAG对领域无感知,对用户的真实目标漠不关心,对答案在具体情境中是否真正有用视而不见,"他说道。"RAC用问题解决思维取代了这种问答模式,它参与对话。"
据Satyanarayana介绍,与RAG不同,RAC引入了动态轮流机制,更像是与相关领域专家进行的人类对话。它旨在提供"小块行动",避免用户认知过载。
例如,当用来协助技术员修理车辆发动机时,RAC会逐步了解发动机类型、零件和症状。相比之下,RAG系统会为AI应用生成完整文档,要么一次性全部显示,要么需要开发者解析才能产生对话界面。
不仅如此,RAC还可以根据开发者想要在AI应用中构建的角色,将更多数据点纳入其对话上下文。
"它不仅检索手册,还检索交易数据、作业历史、零件目录、物联网读数和关键绩效指标目标,然后在这个更丰富的上下文中进行推理,推荐最能平衡成本、风险和时间的行动,"Satyanarayana说道。
Satyanarayana表示,检索增强对话并非根本性地取代RAG,它仍将执行检索增强部分。文档仍需要被搜索和检索,这一方面将为用户指导对话。
另一方面,开发者可以决定他们的应用有多"健谈"。它可以进行一对一问题解决,一次解决一个模糊点,然后在所有问题都解决后提供最终答案。
或者,他们可以开发一个能同时解决多个问题的应用,就像某些人能同时保持多个对话线程一样——类似于研究时在Chrome中打开多个标签页——然后再解决问题。
"在某些地方,一些客户仍会选择单一文档RAG响应,"Satyanarayana说道。"但总体而言,我们的目标是重新设计对话层,摆脱生成模式,真正专注于对话。"
Satyanarayana表示,他预计在未来两年内,RAC可能成为引导式AI检索和指导的主要机制。他将其比作教练,因为它将结果视为目标和解决方案而非直接生成,与用户协作而不是向他们倾倒答案。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。