谷歌正在追赶Anthropic和OpenAI的步伐,逐步为其Gemini应用程序添加定制化、个性化功能,并赋予用户更多数据引用控制权。
聊天平台中的个性化和数据控制功能让个人和企业用户能够更轻松地与聊天机器人对话并保留偏好设置。这对企业空间中的持续项目尤为重要,因为聊天机器人需要记住公司品牌或语调等细节。
谷歌选择了更缓慢的功能推出节奏,与竞争对手不同的是,不允许用户编辑或删除偏好设置。
首先在选定国家向Gemini 2.5 Pro推出,谷歌将把"个人上下文"设为默认设置,允许它"从您过去的对话中学习并提供相关的定制化回应"。公司计划在接下来几周内将该功能扩展到2.5 Flash。
应用程序的早期版本要求客户主动指引模型到特定聊天记录以获取偏好设置,例如提及早期对话。用户仍可随时禁用个人上下文功能。
Gemini应用产品管理高级总监Michael Siliski表示,此次推出是让应用更加个性化计划的一部分。
"在I/O大会上,我们介绍了Gemini应用的愿景:创建一个能够学习并真正理解您的AI助手——而不是像对待其他人的提示那样回应您的提示,"Siliski在博客文章中说道。
目前,如果关闭保存活动选项,Gemini应用会保存聊天记录长达72小时,并可以3个月、18个月或36个月的间隔自动删除其他活动记录。
临时聊天和数据控制
Gemini应用即将推出的其他新功能包括临时聊天和额外的客户数据控制。
临时聊天功能也在去年4月引入ChatGPT,让用户能够进行一次性对话。这些聊天不会影响未来的对话,也不会用于个性化或训练AI模型。
谷歌宣布引入额外的数据控制功能。该功能默认关闭,允许用户阻止其数据被用于未来的谷歌模型训练。
"当此设置开启时,您未来上传内容的样本将用于帮助改善面向所有人的谷歌服务。如果您不希望以这种方式使用您的数据,可以关闭此设置或使用临时聊天。如果您的Gemini应用活动设置当前已关闭,您的保持活动设置将保持关闭状态,您可以随时开启,"Silisky说道。
谷歌表示,这是早期更新的扩展,该更新允许用户选择可以与Gemini分享的音频、视频和屏幕内容。
记忆与聊天机器人
谷歌的Gemini更新比其最大竞争对手推出类似功能晚了整整一年。
例如,ChatGPT在2024年引入了临时聊天、聊天历史和记忆功能。OpenAI在今年4月更新了这些功能,现在ChatGPT可以引用所有过去的对话。
Anthropic在2024年11月推出了样式功能,允许Claude用户定制模型与他们的互动方式。本周早些时候,Anthropic为Claude推送了更新,使其能够引用所有对话,而不仅仅是用户指定的对话。
虽然谷歌在Gemini 2.0中引入了个性化功能,但该模型只能在用户提示时才能引用之前的对话。
记忆、个性化和定制化仍然是AI军备竞赛中的战场,因为用户希望聊天平台能够"了解"他们或他们的品牌。这提供了上下文并消除了为持续项目重复指令的需要。
Q&A
Q1:谷歌Gemini的个人上下文功能是什么?
A:个人上下文是谷歌Gemini的新功能,默认开启,能够从用户过去的对话中学习并提供相关的定制化回应。该功能首先向选定国家的Gemini 2.5 Pro推出,计划几周内扩展到2.5 Flash版本。
Q2:Gemini的临时聊天功能有什么作用?
A:临时聊天功能让用户能够进行一次性对话,这些聊天记录不会影响未来的对话,也不会用于个性化或训练AI模型。这个功能类似于ChatGPT在去年4月推出的同名功能。
Q3:谷歌在AI个性化功能方面比竞争对手落后多少?
A:谷歌的Gemini更新比其最大竞争对手推出类似功能晚了整整一年。ChatGPT在2024年就引入了临时聊天、聊天历史和记忆功能,Anthropic也在2024年11月推出了样式定制功能,而谷歌现在才开始推出这些功能。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。