我在使用谷歌搜索时,经常借助 AI 摘要(AI Overviews)来快速获取所需信息的概要。但这类摘要往往不够详尽,难以完整回答我的问题,因此我通常还需要查阅生成摘要所引用的原始资料。正是基于这一痛点,谷歌近日对 AI 摘要进行了升级,新增五项功能,旨在让搜索结果更加全面、实用。
来自真实用户的建议
有时候,我在搜索某个话题时,希望能听到具有相关知识或亲身经验的普通人的看法。比如,我想了解适合肠胃敏感猫咪的食物,这时候其他猫主人的经验分享往往比泛泛的资料更有参考价值。
针对这一需求,谷歌 AI 摘要将新增"专家建议"板块,汇聚来自讨论论坛、社交媒体及其他网络来源的真实用户评论。每条评论都会显示发帖人姓名或来源论坛名称,并附有链接,方便用户跳转查看完整讨论,甚至直接参与互动。
举个例子:如果你在搜索如何拍出最美的极光照片,谷歌可能会在摘要中呈现来自摄影论坛的实用建议,内容涵盖曝光时间等技术要点,同时附上可点击的链接,带你进入完整的讨论帖。
订阅新闻源直接可见
我有一些经常参考的新闻来源,但它们并不总是能在 AI 摘要中方便地找到。为解决这一问题,谷歌将在 AI 模式和 AI 摘要中直接高亮显示用户订阅的新闻来源链接,让你一键跳转到相关完整报道。
谷歌表示,在早期测试中,标注了"已订阅"标识的链接点击率明显更高。希望帮助订阅用户便捷访问内容的媒体发布商,可前往"订阅链接"页面进行相关设置。
来源链接紧贴相关内容
AI 生成的内容有时会出现错误,这也是我始终坚持查阅原始资料的原因之一。然而,这些来源链接并不总是显眼或易于访问。为此,谷歌将把来源链接直接嵌入 AI 摘要的相关文本旁边,方便用户随时核查。
以骑行旅行规划为例:当 AI 摘要以要点形式列出加州骑行路线的详细信息时,新功能可能会在地形介绍旁附上太平洋海岸骑行指南的链接,在日均里程建议旁附上骑行训练博客的链接,极大提升内容的可信度与实用性。
探索更多相关来源
除了查阅 AI 摘要所引用的原始来源,有时我还希望深入了解更多相关内容。为满足这一需求,谷歌将在 AI 摘要下方新增一个板块,提供同一主题不同维度的延伸阅读建议,包括相关文章或深度分析。
例如,当你在搜索城市如何增加绿色空间时,摘要下方可能会出现首尔恢复城市河流的案例研究,或纽约高线公园的建筑设计报告,帮助你从多角度深入理解这一话题。
链接悬停预览
谷歌 AI 摘要中通常包含相关网站的链接,但用户必须点击后才能了解目标页面的内容。现在,当你将鼠标悬停在链接上时,系统将自动显示该网站的名称或标题预览,帮助你提前判断是否值得点击访问。
这一功能旨在消除用户在点击陌生链接时的顾虑,让浏览体验更加安心流畅。
谷歌在其官方博客中表示:"我们持续优化生成式 AI 搜索体验中链接的展示方式与排序机制,并运用'查询扩散'等技术深度挖掘网络内容,为用户找到最相关的网站。通过提升链接的可见性与实用性,并呈现真实的多元声音,我们致力于让 AI 搜索帮助用户发现更丰富的网络世界,直接连接你所寻找的来源与创作者。"
Q&A
Q1:谷歌 AI 摘要的"专家建议"板块会显示哪些内容?
A:谷歌 AI 摘要新增的"专家建议"板块会展示来自讨论论坛、社交媒体及其他网络来源的真实用户评论。每条评论会显示发帖人姓名或来源论坛名称,并附有跳转链接,用户可以查看完整讨论内容,也可以直接参与讨论互动。
Q2:谷歌 AI 摘要如何支持用户查看订阅的新闻来源?
A:谷歌将在 AI 模式和 AI 摘要中直接高亮显示用户已订阅的新闻来源链接,方便用户一键跳转到完整报道。早期测试显示,标注"已订阅"标识的链接点击率明显提升。媒体发布商可前往"订阅链接"页面进行设置,帮助订阅用户更便捷地访问内容。
Q3:谷歌 AI 摘要的链接悬停预览功能有什么用?
A:当用户将鼠标悬停在 AI 摘要中的链接上时,系统会自动显示该网站的名称或标题预览,帮助用户提前了解目标页面的内容,从而判断是否值得点击访问。这一功能主要是为了消除用户点击陌生链接时的顾虑,提升搜索体验的安全感和便捷性。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。