Google LLC 今天为其搜索引擎推出了两项全新的人工智能功能,旨在帮助用户更快地找到所需信息。
首个更新是 AI Overviews 的增强版本。AI Overviews 于去年五月推出,这项功能会在标准搜索结果上方显示对用户查询的自然语言回应。Google 现在将该功能升级为其最新的 Gemini 2.0 系列大语言模型。
公司并未具体说明 AI Overviews 将使用哪个具体模型。Gemini 2.0 系列中最强大的 Gemini 2.0 Pro 支持处理多达 200 万个 Token 的输入。据公司表示,它在理解复杂查询、生成代码和运用通用知识推理方面的表现优于其之前的所有大语言模型。
Gemini 2.0 系列还包括针对效率优化的 2.0 Flash-Lite 模型。它的成本与 Google 去年五月推出的中端大语言模型相当,但在公司评估的大多数基准测试中都表现出更好的响应质量。
初期,AI Overviews 将利用 Gemini 2.0 为美国用户提供编程和高等数学问题的答案。该模型系列也将被用于处理多模态查询。与先前版本相比,升级后的 AI Overviews 预计将生成更准确的输出。
Google 搜索产品副总裁 Robby Stein 在博客文章中详细说明:"借助 Gemini 2.0 的先进功能,我们能够为这类查询提供更快速、更高质量的回应,并更频繁地显示 AI Overviews。"
Google 同时还推出了 AI Mode,这是一个更强大的 AI Overviews 版本,专门用于回答复杂查询。该功能通过公司的 Search Labs 测试计划提供。目前,只有 Google One AI Premium 订阅用户才能使用这项功能,该订阅提供比标准 Google 账户更多的 AI 功能。
AI Mode 由 Gemini 2.0 的定制版本驱动。根据公司介绍,它使用一种称为"查询扇出"的方法处理输入,该方法涉及执行多次搜索并将结果合并为单一答案。AI Mode 的回应可以包含多个段落。
该功能的即时回答不仅包含网页信息,还包括 Google 的知识图谱系统信息。这是一个包含体育比分、股票价格和天气预报等事实知识的数据库。数据集还包含数十亿产品的信息,AI Mode 可以用这些信息来回答购物相关的查询。
在初始测试阶段,Google 将收集用户反馈以改进功能的输出准确性和界面。公司计划在初始增强后进行更全面的升级。Stein 表示:"我们已经在开发新功能和更新,比如添加更多包含图片和视频的视觉响应、更丰富的格式、访问有用网页内容的新方式等等。"
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。