OpenAI已经移除了让ChatGPT对话被搜索引擎索引的功能,以防止用户无意中暴露敏感信息。
此功能回滚是在有报告显示ChatGPT对话可以在搜索结果中被发现之后做出的决定,这一选项最近才向ChatGPT用户开放。
OpenAI首席信息安全官Dane Stuckey在社交媒体发布了这一变更消息。他将此描述为一个短暂的实验,旨在帮助人们发现有用的对话。
"最终我们认为这个功能为人们意外分享他们不想分享的内容提供了太多机会,所以我们正在移除这个选项,"他说。"我们也在努力从相关搜索引擎中删除已被索引的内容。这项变更将在明天上午向所有用户推出。"
尽管有明确警告"不要分享任何敏感内容",ChatGPT用户仍然这样做了,从而损害了自己的隐私。与搜索广告行业类似,AI供应商声称,当模型能够访问我们的数据和应用程序时,至少在聊天机器人和智能体的语境下,它们能够做得更多。但是让AI模型访问个人信息会放大隐私和安全风险。
这一事件让人想起支付服务Venmo曾经默认公开用户交易记录,直到法律诉讼迫使其改变政策。然而,OpenAI并没有默认公开聊天记录——用户必须选择加入才能公开他们的对话。
OpenAI让搜索引擎索引特定聊天交互的选项以复选框的形式出现,标题为"让这个聊天可被发现",位于点击ChatGPT中的分享图标后出现的"分享聊天公共链接"弹出窗口中。
OpenAI至少从2023年5月就开始提供ChatGPT共享链接功能,当时公司对此功能进行了说明。那时,公司表示共享链接"不会被搜索引擎索引"。
今年早些时候,文档改为:"您可以选择通过链接分享文章或使其可被搜索引擎索引。"
我们注意到"文章"这个通常与人类创作相关的术语,被应用于用户提示和机器响应的组合,仿佛两者可以互换。
OpenAI没有立即回应关于何时发生这种变化的澄清请求。
OpenAI的搜索清理工作似乎正在进行中,但尚未完成。使用site:操作符在chatgpt.com/share上进行的Google搜索不再返回共享的、已索引的聊天列表。Bing搜索返回了数千个结果。DuckDuckGo也返回了许多结果。Brave搜索也是如此。我们在许多这些结果中看到了个人信息。
然而,搜索结果聊天清除的范围是有限的。2025年6月,OpenAI表示它面临来自《纽约时报》版权声明的法律要求,要求无限期保留消费者ChatGPT和API客户数据。这家AI公司表示正在抗争这一要求,因为它"与我们对用户做出的隐私承诺根本冲突"。
Q&A
Q1:OpenAI为什么要取消ChatGPT对话搜索索引功能?
A:OpenAI移除这个功能是因为用户在使用过程中无意中暴露了敏感信息。尽管有明确警告不要分享敏感内容,但用户仍然这样做了,从而损害了自己的隐私。OpenAI首席信息安全官表示,这个功能为人们意外分享他们不想分享的内容提供了太多机会。
Q2:ChatGPT对话搜索索引功能是如何工作的?
A:用户可以通过点击ChatGPT中的分享图标,在"分享聊天公共链接"弹出窗口中勾选"让这个聊天可被发现"的复选框,从而让特定的聊天交互被搜索引擎索引。这不是默认功能,用户必须选择加入才能公开他们的对话。
Q3:OpenAI如何清理已经被搜索引擎索引的ChatGPT对话?
A:OpenAI正在努力从相关搜索引擎中删除已被索引的内容。Google搜索现在已经不再返回共享的、已索引的聊天列表,但Bing、DuckDuckGo和Brave搜索仍然返回许多结果,其中包含个人信息。清理工作正在进行中但尚未完成。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。