在众多 AI 公司纷纷推出聊天机器人的背景下,Google 正在利用其最大的竞争优势 —— 搜索引擎,来让 Gemini 脱颖而出。启用个性化功能后,Gemini 现在可以自动分析用户的查询,判断是否可以通过参考搜索历史来"增强"其回答质量。
该功能由 Gemini 2.0 Flash Thinking Experimental 模型提供支持,只有当 AI 模型认为"有帮助"时才会引用你的搜索结果。例如,当你向 Gemini 询问餐厅或旅行建议时,聊天机器人会参考你最近与美食相关的搜索记录来提供建议。
将搜索历史与 Gemini 关联是可选的。
这是 Google 正在推出的更广泛个性化功能的一部分。该功能最终将把 Gemini 与 YouTube 和 Google Photos 等其他应用程序连接起来,使聊天机器人能够"通过更全面地了解你的活动和偏好,提供更个性化的见解"。
Google 指出,你可以随时断开 Gemini 与搜索历史的连接。当你收到回答时,你会看到 Gemini 如何得出答案的概述,以及它是否参考了你的保存信息、过往对话或搜索历史。系统还会显示一个"清晰的横幅",提供断开搜索历史连接的链接。
Gemini 在提供旅行建议时可能会使用你的搜索历史。
Web 端的 Gemini 和 Gemini Advanced 用户可以通过在模型下拉菜单中选择"个性化 (实验性)"来启用该功能。该功能正在逐步在移动端推出,并在"大多数"国家以超过 40 种语言提供服务。
Google 还发布了其他更新,包括允许所有 Gemini 用户免费创建自己的个人 AI 助手 —— 称为 Gems。公司还宣布将其 Gemini 2.0 Flash Thinking Experimental 模型引入 Deep Research 功能,据称这将提升聊天机器人"在所有研究阶段"的能力。
Gemini 与日历、记事本、任务和照片的集成也升级到了 Gemini 2.0 Flash Thinking Experimental 模型,加入了 YouTube、搜索和 Google Maps 的行列。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。