谷歌表示,Gemini 现在可以使用搜索历史来为其响应提供参考,并补充说该聊天机器人在未来几个月内将获得对 YouTube 和 Photos 等其他平台的访问权限。用户需要授权 Gemini 引用搜索历史记录,并可以随时断开连接。
谷歌表示:"只有当我们的高级推理模型确定搜索历史确实有帮助时,我们才会使用它。"同时补充说他们将继续收集早期测试者的反馈。
个性化功能可以通过 Gemini 的模型下拉菜单找到。谷歌表示,在用户输入提示后,"它将分析提示并确定您的搜索历史是否可以增强响应效果"。
从周四开始,Gemini 和 Gemini Advanced 订阅用户可以通过网页访问这项实验性的个性化功能,该功能也正在移动端推出。支持个性化的 Gemini 将在谷歌运营的大多数国家以超过 40 种语言提供服务。
该聊天机器人由谷歌上个月在其 Gemini 应用程序中推出的 Gemini 2.0 Flash Thinking Experimental 模型驱动。该模型经过训练,通过逐步分解提示并向用户展示其"思考过程"来"加强其推理能力",让用户了解它是如何得出响应的。去年 12 月,谷歌推出了 Gemini 2.0,谷歌首席执行官桑达尔·皮查伊表示,这"将使我们能够构建新的 AI 代理,让我们更接近通用助手的愿景"。
谷歌还在周四表示,它将为 2.0 Flash Thinking Experimental 模型提供更长的上下文窗口以处理更大量的信息,并增加上传文件等新功能。该公司还表示正在用该模型升级其 Deep Research 功能。这项功能将向普通 Gemini 用户免费开放,可以在浏览数百个网页后在几分钟内编制多页研究报告。
Gemini 应用程序还将获得谷歌的 Gems 功能,现在所有用户都可以免费构建自己的个人 AI 专家,涵盖语言和数学等主题。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。