OpenAI已经移除了让ChatGPT对话被搜索引擎索引的功能,以防止用户无意中暴露敏感信息。
此功能回滚是在有报告显示ChatGPT对话可以在搜索结果中被发现之后做出的决定,这一选项最近才向ChatGPT用户开放。
OpenAI首席信息安全官Dane Stuckey在社交媒体发布了这一变更消息。他将此描述为一个短暂的实验,旨在帮助人们发现有用的对话。
"最终我们认为这个功能为人们意外分享他们不想分享的内容提供了太多机会,所以我们正在移除这个选项,"他说。"我们也在努力从相关搜索引擎中删除已被索引的内容。这项变更将在明天上午向所有用户推出。"
尽管有明确警告"不要分享任何敏感内容",ChatGPT用户仍然这样做了,从而损害了自己的隐私。与搜索广告行业类似,AI供应商声称,当模型能够访问我们的数据和应用程序时,至少在聊天机器人和智能体的语境下,它们能够做得更多。但是让AI模型访问个人信息会放大隐私和安全风险。
这一事件让人想起支付服务Venmo曾经默认公开用户交易记录,直到法律诉讼迫使其改变政策。然而,OpenAI并没有默认公开聊天记录——用户必须选择加入才能公开他们的对话。
OpenAI让搜索引擎索引特定聊天交互的选项以复选框的形式出现,标题为"让这个聊天可被发现",位于点击ChatGPT中的分享图标后出现的"分享聊天公共链接"弹出窗口中。
OpenAI至少从2023年5月就开始提供ChatGPT共享链接功能,当时公司对此功能进行了说明。那时,公司表示共享链接"不会被搜索引擎索引"。
今年早些时候,文档改为:"您可以选择通过链接分享文章或使其可被搜索引擎索引。"
我们注意到"文章"这个通常与人类创作相关的术语,被应用于用户提示和机器响应的组合,仿佛两者可以互换。
OpenAI没有立即回应关于何时发生这种变化的澄清请求。
OpenAI的搜索清理工作似乎正在进行中,但尚未完成。使用site:操作符在chatgpt.com/share上进行的Google搜索不再返回共享的、已索引的聊天列表。Bing搜索返回了数千个结果。DuckDuckGo也返回了许多结果。Brave搜索也是如此。我们在许多这些结果中看到了个人信息。
然而,搜索结果聊天清除的范围是有限的。2025年6月,OpenAI表示它面临来自《纽约时报》版权声明的法律要求,要求无限期保留消费者ChatGPT和API客户数据。这家AI公司表示正在抗争这一要求,因为它"与我们对用户做出的隐私承诺根本冲突"。
Q&A
Q1:OpenAI为什么要取消ChatGPT对话搜索索引功能?
A:OpenAI移除这个功能是因为用户在使用过程中无意中暴露了敏感信息。尽管有明确警告不要分享敏感内容,但用户仍然这样做了,从而损害了自己的隐私。OpenAI首席信息安全官表示,这个功能为人们意外分享他们不想分享的内容提供了太多机会。
Q2:ChatGPT对话搜索索引功能是如何工作的?
A:用户可以通过点击ChatGPT中的分享图标,在"分享聊天公共链接"弹出窗口中勾选"让这个聊天可被发现"的复选框,从而让特定的聊天交互被搜索引擎索引。这不是默认功能,用户必须选择加入才能公开他们的对话。
Q3:OpenAI如何清理已经被搜索引擎索引的ChatGPT对话?
A:OpenAI正在努力从相关搜索引擎中删除已被索引的内容。Google搜索现在已经不再返回共享的、已索引的聊天列表,但Bing、DuckDuckGo和Brave搜索仍然返回许多结果,其中包含个人信息。清理工作正在进行中但尚未完成。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。