Anthropic对用户数据处理方式进行重大调整,要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。虽然该公司在被问及此举动机时将我们引向其博客政策变更说明,但我们已形成了自己的一些理论。
首先,让我们看看具体变化:此前,Anthropic不会使用消费者聊天数据进行模型训练。现在,该公司希望利用用户对话和编程会话来训练其AI系统,并表示对于不选择退出的用户,数据保留期将延长至五年。
这是一个巨大的更新。此前,Anthropic消费级产品用户被告知,他们的提示和对话输出将在30天内从Anthropic后端自动删除,"除非法律或政策要求保留更长时间",或者他们的输入被标记为违反政策,在这种情况下,用户的输入和输出可能会保留长达两年。
这里所说的消费者,是指新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI类似地保护企业客户免受数据训练政策影响的做法一致。
那么为什么会发生这种变化?在关于此次更新的博客文章中,Anthropic将这些变化框定为用户选择问题,称不选择退出的用户将"帮助我们改善模型安全性,使我们检测有害内容的系统更加准确,减少误标无害对话的可能性"。用户还将"帮助未来的Claude模型在编程、分析和推理等技能方面得到改进,最终为所有用户带来更好的模型"。
简而言之,帮助我们就是帮助您。但完整的真相可能没有那么无私。
与其他所有大语言模型公司一样,Anthropic对数据的需求超过了对人们对其品牌有好感的需求。训练AI模型需要大量高质量的对话数据,访问数百万Claude交互应该能提供确切所需的真实世界内容,这可以改善Anthropic相对于OpenAI和Google等竞争对手的竞争地位。
除了AI开发的竞争压力外,这些变化似乎也反映了数据政策方面更广泛的行业转变,因为像Anthropic和OpenAI这样的公司在数据保留实践方面面临越来越多的审查。例如,OpenAI目前正在对抗一项法院命令,该命令因《纽约时报》和其他出版商提起的诉讼而迫使该公司无限期保留所有消费者ChatGPT对话,包括已删除的聊天记录。
6月份,OpenAI首席运营官Brad Lightcap称这是"一个全面且不必要的要求","从根本上与我们对用户做出的隐私承诺相冲突"。法院命令影响ChatGPT Free、Plus、Pro和Team用户,但企业客户和那些有零数据保留协议的用户仍受保护。
令人担忧的是,所有这些不断变化的使用政策为用户创造了多少困惑,其中许多人仍然对此毫不知情。
公平地说,现在一切都在快速发展,所以随着技术的变化,隐私政策必然会发生变化。但这些变化中的许多都相当全面,只是在公司的其他新闻中短暂提及。(从Anthropic在其新闻页面上放置此更新的位置来看,您不会认为周二对Anthropic用户的政策变化是非常重大的新闻。)
但许多用户没有意识到他们同意的指导原则已经发生了变化,因为设计几乎保证了这一点。大多数ChatGPT用户一直在点击"删除"开关,但技术上并没有删除任何内容。与此同时,Anthropic对其新政策的实施遵循了一个熟悉的模式。
怎么说?新用户将在注册期间选择他们的偏好,但现有用户面临一个弹窗,大字显示"消费者条款和政策更新",有一个显眼的黑色"接受"按钮,下方有一个更小的训练权限切换开关,字体更小——并且自动设置为"开启"。
正如《The Verge》今天早些时候观察到的,这种设计引发了用户可能会快速点击"接受"而没有注意到自己同意数据共享的担忧。
与此同时,用户意识的风险再高不过了。隐私专家长期以来一直警告说,围绕AI的复杂性使得有意义的用户同意几乎无法实现。在拜登政府期间,联邦贸易委员会甚至出面警告,如果AI公司"暗中更改其服务条款或隐私政策,或将披露信息隐藏在超链接、法律术语或小字中",它们就面临执法行动的风险。
委员会——现在只有五名委员中的三名在运作——今天是否仍在关注这些做法是一个开放的问题,我们已经直接向FTC提出了这个问题。
Q&A
Q1:Anthropic对Claude用户数据政策做了哪些重大调整?
A:Anthropic要求所有Claude用户在9月28日前决定是否同意将对话用于训练AI模型。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,并将不选择退出用户的数据保留期延长至五年。
Q2:哪些Claude用户会受到新数据政策影响?
A:新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。但使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户不受影响,这与OpenAI保护企业客户的做法一致。
Q3:为什么Anthropic要改变数据使用政策?
A:除了改善模型安全性的表面理由外,主要原因是竞争需要。训练AI模型需要大量高质量对话数据,访问数百万Claude交互可以改善Anthropic相对于OpenAI和Google等竞争对手的地位,同时反映了整个行业在数据政策方面的转变。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
清华团队开发DKT模型,利用视频扩散AI技术成功解决透明物体深度估计难题。该研究创建了首个透明物体视频数据集TransPhy3D,通过改造预训练视频生成模型,实现了准确的透明物体深度和法向量估计。在机器人抓取实验中,DKT将成功率提升至73%,为智能系统处理复杂视觉场景开辟新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
字节跳动研究团队提出了专家-路由器耦合损失方法,解决混合专家模型中路由器无法准确理解专家能力的问题。该方法通过让每个专家对其代表性任务产生最强响应,同时确保代表性任务在对应专家处获得最佳处理,建立了专家与路由器的紧密联系。实验表明该方法显著提升了从30亿到150亿参数模型的性能,训练开销仅增加0.2%-0.8%,为混合专家模型优化提供了高效实用的解决方案。