Google 推出了一项名为 "AI 模式" 的新实验性功能,旨在与 Perplexity AI 和 OpenAI 的 ChatGPT Search 等热门服务展开竞争。该公司于周三宣布,这种新模式能让用户在 Google 搜索中直接提出复杂的多部分问题,并进行深入的跟进提问。
AI 模式从本周开始向 Google One AI Premium 订阅用户推出,可以通过 Google 的实验部门 Search Labs 访问。
该功能使用了 Gemini 2.0 的定制版本,特别适合需要进一步探索和比较的问题,这要归功于其先进的推理、思考和多模态能力。
例如,你可以问:"智能戒指、智能手表和追踪垫在睡眠追踪功能上有什么区别?"
AI 模式可以给你一个详细的比较,说明每种产品提供的功能,并提供信息来源的文章链接。然后你可以继续提出后续问题,比如:"在深度睡眠时心率会发生什么变化?"
Google 表示,在过去,通过传统搜索比较详细选项或探索新概念需要多次查询。
通过 AI 模式,你不仅可以访问网络内容,还可以获取实时信息源,如知识图谱、现实世界信息以及数十亿产品的购物数据。
Google 搜索产品副总裁 Robby Stein 在接受 TechCrunch 采访时表示:"从测试中我们发现,人们提出的问题长度大约是传统搜索的两倍,而且有四分之一的时间会提出后续问题。他们真的在处理可能更难的问题,需要更多来回交互的问题,我们认为这创造了扩展 Google 搜索功能的机会,这也是我们非常兴奋的原因。"
Stein 指出,随着 Google 推出在结果页面顶部显示信息快照的 AI Overviews 功能,用户反馈希望在更多搜索中获得这种 AI 驱动的答案,这就是公司推出 AI 模式的原因。
AI 模式通过 "查询扇出" 技术工作,同时在多个数据源中发出多个相关搜索,然后将这些结果整合成易于理解的响应。
Stein 表示:"模型已经学会优先考虑事实性,并通过可验证的信息来支持其说法,这非常重要,它特别关注敏感领域。例如在健康领域,如果它没有把握,可能就只会提供一系列网页链接和网址,因为在当时这是最有帮助的。它会尽最大努力,根据可用信息的背景和回复的可信度来提供最有帮助的内容。这并不意味着它永远不会犯错。与每种新发布的前沿 AI 技术一样,它很可能会犯错。"
由于这是一个早期实验,Google 表示将继续改进用户体验并扩展功能。例如,公司计划使体验更加视觉化,并从不同来源(如用户生成内容)获取信息。Google 正在教导模型确定何时在响应中添加超链接(如预订票务),或何时优先显示图片或视频(如操作指南查询)。
Google One AI Premium 订阅用户可以通过加入 Search Labs,然后在搜索栏中输入问题并点击 "AI 模式" 标签来访问该功能。或者,他们可以直接访问 google.com/aimode 使用该功能。在移动端,他们可以打开 Google 应用,在主页面搜索栏下方点击 "AI 模式" 图标。
作为今天公告的一部分,Google 还宣布在美国为 AI Overviews 启用了 Gemini 2.0。该公司表示,AI Overviews 现在将能够处理更难的问题,首先从编码、高等数学和多模态查询开始。此外,Google 宣布用户不再需要登录就能访问 AI Overviews,该功能现在也向青少年用户开放。
好文章,需要你的鼓励
本文评测了六款控制台平铺终端复用器工具。GNU Screen作为老牌工具功能强大但操作复杂,Tmux更现代化但学习曲线陡峭,Byobu为前两者提供友好界面,Zellij用Rust编写界面简洁易用,DVTM追求极简主义,Twin提供类似TurboVision的文本界面环境。每款工具都有各自特点和适用场景。
韩国汉阳大学联合高通AI研究院开发出InfiniPot-V框架,解决了移动设备处理长视频时的内存限制问题。该技术通过时间冗余消除和语义重要性保留两种策略,将存储需求压缩至原来的12%,同时保持高准确性,让手机和AR眼镜也能实时理解超长视频内容。
网络安全公司Snyk宣布收购瑞士人工智能安全研究公司Invariant Labs,收购金额未公开。Invariant Labs从苏黎世联邦理工学院分拆成立,专注于帮助开发者构建安全可靠的AI代理工具和框架。该公司提供Explorer运行时观察仪表板、Gateway轻量级代理、Guardrails策略引擎等产品,并在工具中毒和模型上下文协议漏洞等新兴AI威胁防护方面处于领先地位。此次收购将推进Snyk保护下一代AI原生应用的使命。
纽约大学研究团队通过INT-ACT测试套件全面评估了当前先进的视觉-语言-动作机器人模型,发现了一个普遍存在的"意图-行动差距"问题:机器人能够正确理解任务和识别物体,但在实际动作执行时频频失败。研究还揭示了端到端训练会损害原有语言理解能力,以及多模态挑战下的推理脆弱性,为未来机器人技术发展提供了重要指导。