Anthropic用户面临新选择:退出或同意共享数据用于AI训练

Anthropic对用户数据处理政策进行重大调整,要求所有Claude用户在9月28日前决定是否允许其对话数据用于AI模型训练。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,未选择退出的用户数据保留期将延长至五年。新政策适用于Claude免费版、专业版和最高版用户,但不影响企业客户。

Anthropic对用户数据处理方式进行重大调整,要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。虽然该公司在被问及此举动机时将我们引向其博客政策变更说明,但我们已形成了自己的一些理论。

首先,让我们看看具体变化:此前,Anthropic不会使用消费者聊天数据进行模型训练。现在,该公司希望利用用户对话和编程会话来训练其AI系统,并表示对于不选择退出的用户,数据保留期将延长至五年。

这是一个巨大的更新。此前,Anthropic消费级产品用户被告知,他们的提示和对话输出将在30天内从Anthropic后端自动删除,"除非法律或政策要求保留更长时间",或者他们的输入被标记为违反政策,在这种情况下,用户的输入和输出可能会保留长达两年。

这里所说的消费者,是指新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI类似地保护企业客户免受数据训练政策影响的做法一致。

那么为什么会发生这种变化?在关于此次更新的博客文章中,Anthropic将这些变化框定为用户选择问题,称不选择退出的用户将"帮助我们改善模型安全性,使我们检测有害内容的系统更加准确,减少误标无害对话的可能性"。用户还将"帮助未来的Claude模型在编程、分析和推理等技能方面得到改进,最终为所有用户带来更好的模型"。

简而言之,帮助我们就是帮助您。但完整的真相可能没有那么无私。

与其他所有大语言模型公司一样,Anthropic对数据的需求超过了对人们对其品牌有好感的需求。训练AI模型需要大量高质量的对话数据,访问数百万Claude交互应该能提供确切所需的真实世界内容,这可以改善Anthropic相对于OpenAI和Google等竞争对手的竞争地位。

除了AI开发的竞争压力外,这些变化似乎也反映了数据政策方面更广泛的行业转变,因为像Anthropic和OpenAI这样的公司在数据保留实践方面面临越来越多的审查。例如,OpenAI目前正在对抗一项法院命令,该命令因《纽约时报》和其他出版商提起的诉讼而迫使该公司无限期保留所有消费者ChatGPT对话,包括已删除的聊天记录。

6月份,OpenAI首席运营官Brad Lightcap称这是"一个全面且不必要的要求","从根本上与我们对用户做出的隐私承诺相冲突"。法院命令影响ChatGPT Free、Plus、Pro和Team用户,但企业客户和那些有零数据保留协议的用户仍受保护。

令人担忧的是,所有这些不断变化的使用政策为用户创造了多少困惑,其中许多人仍然对此毫不知情。

公平地说,现在一切都在快速发展,所以随着技术的变化,隐私政策必然会发生变化。但这些变化中的许多都相当全面,只是在公司的其他新闻中短暂提及。(从Anthropic在其新闻页面上放置此更新的位置来看,您不会认为周二对Anthropic用户的政策变化是非常重大的新闻。)

但许多用户没有意识到他们同意的指导原则已经发生了变化,因为设计几乎保证了这一点。大多数ChatGPT用户一直在点击"删除"开关,但技术上并没有删除任何内容。与此同时,Anthropic对其新政策的实施遵循了一个熟悉的模式。

怎么说?新用户将在注册期间选择他们的偏好,但现有用户面临一个弹窗,大字显示"消费者条款和政策更新",有一个显眼的黑色"接受"按钮,下方有一个更小的训练权限切换开关,字体更小——并且自动设置为"开启"。

正如《The Verge》今天早些时候观察到的,这种设计引发了用户可能会快速点击"接受"而没有注意到自己同意数据共享的担忧。

与此同时,用户意识的风险再高不过了。隐私专家长期以来一直警告说,围绕AI的复杂性使得有意义的用户同意几乎无法实现。在拜登政府期间,联邦贸易委员会甚至出面警告,如果AI公司"暗中更改其服务条款或隐私政策,或将披露信息隐藏在超链接、法律术语或小字中",它们就面临执法行动的风险。

委员会——现在只有五名委员中的三名在运作——今天是否仍在关注这些做法是一个开放的问题,我们已经直接向FTC提出了这个问题。

Q&A

Q1:Anthropic对Claude用户数据政策做了哪些重大调整?

A:Anthropic要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,并将不选择退出用户的数据保留期延长至五年。

Q2:哪些Claude用户会受到新数据政策影响?

A:新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。但使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI保护企业客户的做法一致。

Q3:为什么Anthropic要改变数据使用政策?

A:除了改善模型安全性的表面理由外,主要原因是竞争需要。训练AI模型需要大量高质量对话数据,访问数百万Claude交互可以改善Anthropic相对于OpenAI和Google等竞争对手的地位,同时反映了整个行业在数据政策方面的转变。

来源:Techcrunch

0赞

好文章,需要你的鼓励

2025

08/29

08:21

分享

点赞

邮件订阅