Anthropic对用户数据处理方式进行重大调整,要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。虽然该公司在被问及此举动机时将我们引向其博客政策变更说明,但我们已形成了自己的一些理论。
首先,让我们看看具体变化:此前,Anthropic不会使用消费者聊天数据进行模型训练。现在,该公司希望利用用户对话和编程会话来训练其AI系统,并表示对于不选择退出的用户,数据保留期将延长至五年。
这是一个巨大的更新。此前,Anthropic消费级产品用户被告知,他们的提示和对话输出将在30天内从Anthropic后端自动删除,"除非法律或政策要求保留更长时间",或者他们的输入被标记为违反政策,在这种情况下,用户的输入和输出可能会保留长达两年。
这里所说的消费者,是指新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI类似地保护企业客户免受数据训练政策影响的做法一致。
那么为什么会发生这种变化?在关于此次更新的博客文章中,Anthropic将这些变化框定为用户选择问题,称不选择退出的用户将"帮助我们改善模型安全性,使我们检测有害内容的系统更加准确,减少误标无害对话的可能性"。用户还将"帮助未来的Claude模型在编程、分析和推理等技能方面得到改进,最终为所有用户带来更好的模型"。
简而言之,帮助我们就是帮助您。但完整的真相可能没有那么无私。
与其他所有大语言模型公司一样,Anthropic对数据的需求超过了对人们对其品牌有好感的需求。训练AI模型需要大量高质量的对话数据,访问数百万Claude交互应该能提供确切所需的真实世界内容,这可以改善Anthropic相对于OpenAI和Google等竞争对手的竞争地位。
除了AI开发的竞争压力外,这些变化似乎也反映了数据政策方面更广泛的行业转变,因为像Anthropic和OpenAI这样的公司在数据保留实践方面面临越来越多的审查。例如,OpenAI目前正在对抗一项法院命令,该命令因《纽约时报》和其他出版商提起的诉讼而迫使该公司无限期保留所有消费者ChatGPT对话,包括已删除的聊天记录。
6月份,OpenAI首席运营官Brad Lightcap称这是"一个全面且不必要的要求","从根本上与我们对用户做出的隐私承诺相冲突"。法院命令影响ChatGPT Free、Plus、Pro和Team用户,但企业客户和那些有零数据保留协议的用户仍受保护。
令人担忧的是,所有这些不断变化的使用政策为用户创造了多少困惑,其中许多人仍然对此毫不知情。
公平地说,现在一切都在快速发展,所以随着技术的变化,隐私政策必然会发生变化。但这些变化中的许多都相当全面,只是在公司的其他新闻中短暂提及。(从Anthropic在其新闻页面上放置此更新的位置来看,您不会认为周二对Anthropic用户的政策变化是非常重大的新闻。)
但许多用户没有意识到他们同意的指导原则已经发生了变化,因为设计几乎保证了这一点。大多数ChatGPT用户一直在点击"删除"开关,但技术上并没有删除任何内容。与此同时,Anthropic对其新政策的实施遵循了一个熟悉的模式。
怎么说?新用户将在注册期间选择他们的偏好,但现有用户面临一个弹窗,大字显示"消费者条款和政策更新",有一个显眼的黑色"接受"按钮,下方有一个更小的训练权限切换开关,字体更小——并且自动设置为"开启"。
正如《The Verge》今天早些时候观察到的,这种设计引发了用户可能会快速点击"接受"而没有注意到自己同意数据共享的担忧。
与此同时,用户意识的风险再高不过了。隐私专家长期以来一直警告说,围绕AI的复杂性使得有意义的用户同意几乎无法实现。在拜登政府期间,联邦贸易委员会甚至出面警告,如果AI公司"暗中更改其服务条款或隐私政策,或将披露信息隐藏在超链接、法律术语或小字中",它们就面临执法行动的风险。
委员会——现在只有五名委员中的三名在运作——今天是否仍在关注这些做法是一个开放的问题,我们已经直接向FTC提出了这个问题。
Q&A
Q1:Anthropic对Claude用户数据政策做了哪些重大调整?
A:Anthropic要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,并将不选择退出用户的数据保留期延长至五年。
Q2:哪些Claude用户会受到新数据政策影响?
A:新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。但使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI保护企业客户的做法一致。
Q3:为什么Anthropic要改变数据使用政策?
A:除了改善模型安全性的表面理由外,主要原因是竞争需要。训练AI模型需要大量高质量对话数据,访问数百万Claude交互可以改善Anthropic相对于OpenAI和Google等竞争对手的地位,同时反映了整个行业在数据政策方面的转变。
好文章,需要你的鼓励
在“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场以“AIGC创作新范式——双脑智能时代:心智驱动的生产力变革”为主题的分论坛,成为现场最具张力的对话空间。
人民大学团队开发了Search-o1框架,让AI在推理时能像侦探一样边查资料边思考。系统通过检测不确定性词汇自动触发搜索,并用知识精炼模块从海量资料中提取关键信息无缝融入推理过程。在博士级科学问题测试中,该系统整体准确率达63.6%,在物理和生物领域甚至超越人类专家水平,为AI推理能力带来突破性提升。
Linux Mint团队计划加快发布周期,在未来几个月推出两个新版本。LMDE 7代号"Gigi"基于Debian 13开发,将包含libAdapta库以支持Gtk4应用的主题功能。新版本将停止提供32位版本支持。同时Cinnamon桌面的Wayland支持持续改进,在菜单、状态小程序和键盘输入处理方面表现更佳,有望成为完整支持Wayland的重要桌面环境之一。
Anthropic研究团队开发的REINFORCE++算法通过采用全局优势标准化解决了AI训练中的"过度拟合"问题。该算法摒弃了传统PPO方法中昂贵的价值网络组件,用统一评价标准替代针对单个问题的局部基准,有效避免了"奖励破解"现象。实验显示,REINFORCE++在处理新问题时表现更稳定,特别是在长文本推理和工具集成场景中展现出优异的泛化能力,为开发更实用可靠的AI系统提供了新思路。