Anthropic对用户数据处理方式进行重大调整,要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。虽然该公司在被问及此举动机时将我们引向其博客政策变更说明,但我们已形成了自己的一些理论。
首先,让我们看看具体变化:此前,Anthropic不会使用消费者聊天数据进行模型训练。现在,该公司希望利用用户对话和编程会话来训练其AI系统,并表示对于不选择退出的用户,数据保留期将延长至五年。
这是一个巨大的更新。此前,Anthropic消费级产品用户被告知,他们的提示和对话输出将在30天内从Anthropic后端自动删除,"除非法律或政策要求保留更长时间",或者他们的输入被标记为违反政策,在这种情况下,用户的输入和输出可能会保留长达两年。
这里所说的消费者,是指新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI类似地保护企业客户免受数据训练政策影响的做法一致。
那么为什么会发生这种变化?在关于此次更新的博客文章中,Anthropic将这些变化框定为用户选择问题,称不选择退出的用户将"帮助我们改善模型安全性,使我们检测有害内容的系统更加准确,减少误标无害对话的可能性"。用户还将"帮助未来的Claude模型在编程、分析和推理等技能方面得到改进,最终为所有用户带来更好的模型"。
简而言之,帮助我们就是帮助您。但完整的真相可能没有那么无私。
与其他所有大语言模型公司一样,Anthropic对数据的需求超过了对人们对其品牌有好感的需求。训练AI模型需要大量高质量的对话数据,访问数百万Claude交互应该能提供确切所需的真实世界内容,这可以改善Anthropic相对于OpenAI和Google等竞争对手的竞争地位。
除了AI开发的竞争压力外,这些变化似乎也反映了数据政策方面更广泛的行业转变,因为像Anthropic和OpenAI这样的公司在数据保留实践方面面临越来越多的审查。例如,OpenAI目前正在对抗一项法院命令,该命令因《纽约时报》和其他出版商提起的诉讼而迫使该公司无限期保留所有消费者ChatGPT对话,包括已删除的聊天记录。
6月份,OpenAI首席运营官Brad Lightcap称这是"一个全面且不必要的要求","从根本上与我们对用户做出的隐私承诺相冲突"。法院命令影响ChatGPT Free、Plus、Pro和Team用户,但企业客户和那些有零数据保留协议的用户仍受保护。
令人担忧的是,所有这些不断变化的使用政策为用户创造了多少困惑,其中许多人仍然对此毫不知情。
公平地说,现在一切都在快速发展,所以随着技术的变化,隐私政策必然会发生变化。但这些变化中的许多都相当全面,只是在公司的其他新闻中短暂提及。(从Anthropic在其新闻页面上放置此更新的位置来看,您不会认为周二对Anthropic用户的政策变化是非常重大的新闻。)
但许多用户没有意识到他们同意的指导原则已经发生了变化,因为设计几乎保证了这一点。大多数ChatGPT用户一直在点击"删除"开关,但技术上并没有删除任何内容。与此同时,Anthropic对其新政策的实施遵循了一个熟悉的模式。
怎么说?新用户将在注册期间选择他们的偏好,但现有用户面临一个弹窗,大字显示"消费者条款和政策更新",有一个显眼的黑色"接受"按钮,下方有一个更小的训练权限切换开关,字体更小——并且自动设置为"开启"。
正如《The Verge》今天早些时候观察到的,这种设计引发了用户可能会快速点击"接受"而没有注意到自己同意数据共享的担忧。
与此同时,用户意识的风险再高不过了。隐私专家长期以来一直警告说,围绕AI的复杂性使得有意义的用户同意几乎无法实现。在拜登政府期间,联邦贸易委员会甚至出面警告,如果AI公司"暗中更改其服务条款或隐私政策,或将披露信息隐藏在超链接、法律术语或小字中",它们就面临执法行动的风险。
委员会——现在只有五名委员中的三名在运作——今天是否仍在关注这些做法是一个开放的问题,我们已经直接向FTC提出了这个问题。
Q&A
Q1:Anthropic对Claude用户数据政策做了哪些重大调整?
A:Anthropic要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,并将不选择退出用户的数据保留期延长至五年。
Q2:哪些Claude用户会受到新数据政策影响?
A:新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。但使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI保护企业客户的做法一致。
Q3:为什么Anthropic要改变数据使用政策?
A:除了改善模型安全性的表面理由外,主要原因是竞争需要。训练AI模型需要大量高质量对话数据,访问数百万Claude交互可以改善Anthropic相对于OpenAI和Google等竞争对手的地位,同时反映了整个行业在数据政策方面的转变。
好文章,需要你的鼓励
Anthropic对用户数据处理政策进行重大调整,要求所有Claude用户在9月28日前决定是否允许其对话数据用于AI模型训练。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,未选择退出的用户数据保留期将延长至五年。新政策适用于Claude免费版、专业版和最高版用户,但不影响企业客户。
谷歌DeepMind团队开发了过程监督强化学习技术,让AI学会像人类一样进行复杂推理。该方法不仅关注最终答案,更重视推理过程中每一步的合理性。在数学推理测试中,AI准确率从41%提升至73%。这项技术为AI在教育、科研、医疗等领域的应用开辟了新可能,让AI决策过程更加透明可信。
OpenAI和微软发布了两款新的语音人工智能模型。OpenAI的gpt-realtime被称为其最强语音模型,可生成更自然的语音并能在句中改变语调和语言。微软推出的MAI-Voice-1模型已集成到Copilot助手中,具有高硬件效率,单个GPU即可在一秒内生成一分钟音频。两家公司还发布了MAI-1-preview模型,采用专家混合架构提高效率。
上海AI实验室等机构联合研究开发的InMind框架,通过阿瓦隆社交推理游戏测试AI是否能理解和模仿人类个性化推理风格。研究发现,尽管GPT-4o等先进模型在基础任务表现良好,但在理解个性化推理方面仍有明显不足,大多依赖词汇相似性而非深层推理模式。DeepSeek-R1等推理优化模型展现出更好潜力,为开发更懂人心的AI系统指明了方向。