Google 推出了一项名为 "AI 模式" 的新实验性功能,旨在与 Perplexity AI 和 OpenAI 的 ChatGPT Search 等热门服务展开竞争。该公司于周三宣布,这种新模式能让用户在 Google 搜索中直接提出复杂的多部分问题,并进行深入的跟进提问。
AI 模式从本周开始向 Google One AI Premium 订阅用户推出,可以通过 Google 的实验部门 Search Labs 访问。
该功能使用了 Gemini 2.0 的定制版本,特别适合需要进一步探索和比较的问题,这要归功于其先进的推理、思考和多模态能力。
例如,你可以问:"智能戒指、智能手表和追踪垫在睡眠追踪功能上有什么区别?"
AI 模式可以给你一个详细的比较,说明每种产品提供的功能,并提供信息来源的文章链接。然后你可以继续提出后续问题,比如:"在深度睡眠时心率会发生什么变化?"
Google 表示,在过去,通过传统搜索比较详细选项或探索新概念需要多次查询。
通过 AI 模式,你不仅可以访问网络内容,还可以获取实时信息源,如知识图谱、现实世界信息以及数十亿产品的购物数据。
Google 搜索产品副总裁 Robby Stein 在接受 TechCrunch 采访时表示:"从测试中我们发现,人们提出的问题长度大约是传统搜索的两倍,而且有四分之一的时间会提出后续问题。他们真的在处理可能更难的问题,需要更多来回交互的问题,我们认为这创造了扩展 Google 搜索功能的机会,这也是我们非常兴奋的原因。"
Stein 指出,随着 Google 推出在结果页面顶部显示信息快照的 AI Overviews 功能,用户反馈希望在更多搜索中获得这种 AI 驱动的答案,这就是公司推出 AI 模式的原因。
AI 模式通过 "查询扇出" 技术工作,同时在多个数据源中发出多个相关搜索,然后将这些结果整合成易于理解的响应。
Stein 表示:"模型已经学会优先考虑事实性,并通过可验证的信息来支持其说法,这非常重要,它特别关注敏感领域。例如在健康领域,如果它没有把握,可能就只会提供一系列网页链接和网址,因为在当时这是最有帮助的。它会尽最大努力,根据可用信息的背景和回复的可信度来提供最有帮助的内容。这并不意味着它永远不会犯错。与每种新发布的前沿 AI 技术一样,它很可能会犯错。"
由于这是一个早期实验,Google 表示将继续改进用户体验并扩展功能。例如,公司计划使体验更加视觉化,并从不同来源(如用户生成内容)获取信息。Google 正在教导模型确定何时在响应中添加超链接(如预订票务),或何时优先显示图片或视频(如操作指南查询)。
Google One AI Premium 订阅用户可以通过加入 Search Labs,然后在搜索栏中输入问题并点击 "AI 模式" 标签来访问该功能。或者,他们可以直接访问 google.com/aimode 使用该功能。在移动端,他们可以打开 Google 应用,在主页面搜索栏下方点击 "AI 模式" 图标。
作为今天公告的一部分,Google 还宣布在美国为 AI Overviews 启用了 Gemini 2.0。该公司表示,AI Overviews 现在将能够处理更难的问题,首先从编码、高等数学和多模态查询开始。此外,Google 宣布用户不再需要登录就能访问 AI Overviews,该功能现在也向青少年用户开放。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。