人工智能服务平台提供商Aquant Inc.今日推出"检索增强对话"技术,这是一种让大型语言模型检索和呈现信息的全新方法,使AI能够像领域专家一样原生地提供指导,而不是以单一的一体化答案形式接收和呈现知识。
AI大型语言模型在面对用户提问时需要外部知识来更新其通用训练,这通常通过检索增强生成(RAG)来实现。RAG是一种从外部源检索相关信息的工作流程,能够提高准确性并减少幻觉现象。
这些工作流程可以搜索数十万份文档,检索最具上下文相关性的知识,并在大型语言模型一次性提供答案之前将这些信息呈现给它。但是否存在更好的方式将信息传递给AI和用户呢?
产品技术与实验室副总裁、检索增强对话之父Indresh Satyanarayana在接受采访时表示,RAC可以被理解为一个了解自身能力和容量的专家技术员。它帮助AI分析用户的问题,并提出后续问题来填补知识空白,生成定制化解决方案。
"RAG对领域无感知,对用户的真实目标漠不关心,对答案在具体情境中是否真正有用视而不见,"他说道。"RAC用问题解决思维取代了这种问答模式,它参与对话。"
据Satyanarayana介绍,与RAG不同,RAC引入了动态轮流机制,更像是与相关领域专家进行的人类对话。它旨在提供"小块行动",避免用户认知过载。
例如,当用来协助技术员修理车辆发动机时,RAC会逐步了解发动机类型、零件和症状。相比之下,RAG系统会为AI应用生成完整文档,要么一次性全部显示,要么需要开发者解析才能产生对话界面。
不仅如此,RAC还可以根据开发者想要在AI应用中构建的角色,将更多数据点纳入其对话上下文。
"它不仅检索手册,还检索交易数据、作业历史、零件目录、物联网读数和关键绩效指标目标,然后在这个更丰富的上下文中进行推理,推荐最能平衡成本、风险和时间的行动,"Satyanarayana说道。
Satyanarayana表示,检索增强对话并非根本性地取代RAG,它仍将执行检索增强部分。文档仍需要被搜索和检索,这一方面将为用户指导对话。
另一方面,开发者可以决定他们的应用有多"健谈"。它可以进行一对一问题解决,一次解决一个模糊点,然后在所有问题都解决后提供最终答案。
或者,他们可以开发一个能同时解决多个问题的应用,就像某些人能同时保持多个对话线程一样——类似于研究时在Chrome中打开多个标签页——然后再解决问题。
"在某些地方,一些客户仍会选择单一文档RAG响应,"Satyanarayana说道。"但总体而言,我们的目标是重新设计对话层,摆脱生成模式,真正专注于对话。"
Satyanarayana表示,他预计在未来两年内,RAC可能成为引导式AI检索和指导的主要机制。他将其比作教练,因为它将结果视为目标和解决方案而非直接生成,与用户协作而不是向他们倾倒答案。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。