Anthropic即将开始使用用户与Claude聊天机器人的对话记录来训练其大语言模型。该公告于周四发布,作为公司消费者条款和隐私政策的更新内容。
新用户在注册过程中将看到一个"帮助改进Claude"的选项,可以选择开启或关闭。现有用户将开始收到解释此变更的通知。用户需要在9月28日之前选择退出,因为该功能将默认启用。用户仍可以在Claude的隐私设置中关闭此选项。
Anthropic的代表拒绝对此发表评论。
变更内容
使用Claude免费版、专业版、最大版或代码会话的个人用户将在9月下旬受到此变更的影响。启用此选项后,AI训练将仅在新的和恢复的聊天及编程会话中进行。较旧且未重新访问的聊天记录不会受到影响——至少目前如此。
更新政策有例外情况。Claude for Work(团队和企业计划)、Claude Gov和Claude Education不会受到影响。这也适用于第三方的应用程序编程接口使用,包括Amazon Bedrock和Google Cloud的Vertex AI。
在9月28日截止日期之前,用户可以通过关闭通知或选择"暂不"选项来忽略通知。截止日期后,用户必须做出选择才能继续使用Claude。
数据保留变更
选择参与AI模型训练的用户的数据保留时间也将从之前的30天大幅延长。选择参与的用户数据将被存储五年,与更新的训练政策一样,仅适用于新的或恢复的聊天。
Anthropic表示,延长数据保留期将使公司能够识别滥用行为并检测有害使用模式。
如何在Claude中更新隐私设置
如果用户意外选择参与新变更或因任何原因改变主意,始终可以选择退出。操作方法如下:
网页端:
1. 点击左下角的用户图标
2. 点击设置
3. 从侧面板点击隐私
4. 将"帮助改进Claude"切换为关闭
移动端:
1. 点击左上角的堆叠线条图标
2. 点击设置齿轮
3. 点击隐私
4. 将"帮助改进Claude"切换为关闭
如果用户之前选择参与但决定退出,新的和恢复的聊天将不再用于未来的AI模型训练。任何符合条件的数据仍将包含在已经开始的训练和已经训练的模型中,但不会用于未来的训练。
Q&A
Q1:Anthropic的数据使用政策变更会影响哪些用户?
A:变更将影响使用Claude免费版、专业版、最大版或代码会话的个人用户。但Claude for Work(团队和企业计划)、Claude Gov和Claude Education不会受到影响,第三方API使用也不受影响。
Q2:选择参与AI训练后数据会被保存多长时间?
A:选择参与AI模型训练的用户数据将从之前的30天保留期延长至5年。Anthropic称这将帮助公司识别滥用行为并检测有害使用模式。
Q3:如何在Claude中关闭数据训练功能?
A:用户可以在隐私设置中关闭"帮助改进Claude"选项。网页端需依次点击用户图标-设置-隐私进行设置,移动端需点击菜单图标-设置齿轮-隐私进行操作。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。