Anthropic对用户数据处理方式进行重大调整,要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。虽然该公司在被问及此举动机时将我们引向其博客政策变更说明,但我们已形成了自己的一些理论。
首先,让我们看看具体变化:此前,Anthropic不会使用消费者聊天数据进行模型训练。现在,该公司希望利用用户对话和编程会话来训练其AI系统,并表示对于不选择退出的用户,数据保留期将延长至五年。
这是一个巨大的更新。此前,Anthropic消费级产品用户被告知,他们的提示和对话输出将在30天内从Anthropic后端自动删除,"除非法律或政策要求保留更长时间",或者他们的输入被标记为违反政策,在这种情况下,用户的输入和输出可能会保留长达两年。
这里所说的消费者,是指新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI类似地保护企业客户免受数据训练政策影响的做法一致。
那么为什么会发生这种变化?在关于此次更新的博客文章中,Anthropic将这些变化框定为用户选择问题,称不选择退出的用户将"帮助我们改善模型安全性,使我们检测有害内容的系统更加准确,减少误标无害对话的可能性"。用户还将"帮助未来的Claude模型在编程、分析和推理等技能方面得到改进,最终为所有用户带来更好的模型"。
简而言之,帮助我们就是帮助您。但完整的真相可能没有那么无私。
与其他所有大语言模型公司一样,Anthropic对数据的需求超过了对人们对其品牌有好感的需求。训练AI模型需要大量高质量的对话数据,访问数百万Claude交互应该能提供确切所需的真实世界内容,这可以改善Anthropic相对于OpenAI和Google等竞争对手的竞争地位。
除了AI开发的竞争压力外,这些变化似乎也反映了数据政策方面更广泛的行业转变,因为像Anthropic和OpenAI这样的公司在数据保留实践方面面临越来越多的审查。例如,OpenAI目前正在对抗一项法院命令,该命令因《纽约时报》和其他出版商提起的诉讼而迫使该公司无限期保留所有消费者ChatGPT对话,包括已删除的聊天记录。
6月份,OpenAI首席运营官Brad Lightcap称这是"一个全面且不必要的要求","从根本上与我们对用户做出的隐私承诺相冲突"。法院命令影响ChatGPT Free、Plus、Pro和Team用户,但企业客户和那些有零数据保留协议的用户仍受保护。
令人担忧的是,所有这些不断变化的使用政策为用户创造了多少困惑,其中许多人仍然对此毫不知情。
公平地说,现在一切都在快速发展,所以随着技术的变化,隐私政策必然会发生变化。但这些变化中的许多都相当全面,只是在公司的其他新闻中短暂提及。(从Anthropic在其新闻页面上放置此更新的位置来看,您不会认为周二对Anthropic用户的政策变化是非常重大的新闻。)
但许多用户没有意识到他们同意的指导原则已经发生了变化,因为设计几乎保证了这一点。大多数ChatGPT用户一直在点击"删除"开关,但技术上并没有删除任何内容。与此同时,Anthropic对其新政策的实施遵循了一个熟悉的模式。
怎么说?新用户将在注册期间选择他们的偏好,但现有用户面临一个弹窗,大字显示"消费者条款和政策更新",有一个显眼的黑色"接受"按钮,下方有一个更小的训练权限切换开关,字体更小——并且自动设置为"开启"。
正如《The Verge》今天早些时候观察到的,这种设计引发了用户可能会快速点击"接受"而没有注意到自己同意数据共享的担忧。
与此同时,用户意识的风险再高不过了。隐私专家长期以来一直警告说,围绕AI的复杂性使得有意义的用户同意几乎无法实现。在拜登政府期间,联邦贸易委员会甚至出面警告,如果AI公司"暗中更改其服务条款或隐私政策,或将披露信息隐藏在超链接、法律术语或小字中",它们就面临执法行动的风险。
委员会——现在只有五名委员中的三名在运作——今天是否仍在关注这些做法是一个开放的问题,我们已经直接向FTC提出了这个问题。
Q&A
Q1:Anthropic对Claude用户数据政策做了哪些重大调整?
A:Anthropic要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,并将不选择退出用户的数据保留期延长至五年。
Q2:哪些Claude用户会受到新数据政策影响?
A:新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。但使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI保护企业客户的做法一致。
Q3:为什么Anthropic要改变数据使用政策?
A:除了改善模型安全性的表面理由外,主要原因是竞争需要。训练AI模型需要大量高质量对话数据,访问数百万Claude交互可以改善Anthropic相对于OpenAI和Google等竞争对手的地位,同时反映了整个行业在数据政策方面的转变。
好文章,需要你的鼓励
前OpenAI首席技术官Mira Murati创办的AI初创公司Thinking Machines Lab宣布推出"交互模型"技术。不同于现有AI的轮流对话方式,该模型采用"全双工"技术,能在接收输入的同时生成响应,实现类似真实电话通话的自然交互。其模型TML-Interaction-Small响应速度达0.40秒,优于OpenAI和谷歌同类产品。目前仍处于研究预览阶段,计划数月内开放有限测试,年内正式发布。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
澳大利亚各州及联邦能源部长在近期会议上达成共识,要求数据中心通过投资新建可再生能源和储能设施,完全抵消其电力需求。除昆士兰州外,所有州均支持该提议。联邦能源部长克里斯·鲍文表示,数据中心是新增能源需求的最大驱动力之一,应成为电网的助力而非负担。澳大利亚能源市场委员会将于7月前提交具体实施建议。数据显示,到2030年数据中心用电量预计将增至现在的三倍。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。