Anthropic宣布使用Claude聊天数据训练AI:如何退出

Anthropic宣布将开始使用用户与Claude的聊天记录来训练其AI模型。新用户在注册时可选择是否参与"帮助改进Claude"功能,现有用户将收到相关通知。该功能将于9月28日默认启用,用户需在此前选择退出。启用后,数据保留期将从30天延长至5年。企业版、政府版和教育版用户不受影响。用户可随时在隐私设置中关闭此功能。

Anthropic即将开始使用用户与Claude聊天机器人的对话记录来训练其大语言模型。该公告于周四发布,作为公司消费者条款和隐私政策的更新内容。

新用户在注册过程中将看到一个"帮助改进Claude"的选项,可以选择开启或关闭。现有用户将开始收到解释此变更的通知。用户需要在9月28日之前选择退出,因为该功能将默认启用。用户仍可以在Claude的隐私设置中关闭此选项。

Anthropic的代表拒绝对此发表评论。

变更内容

使用Claude免费版、专业版、最大版或代码会话的个人用户将在9月下旬受到此变更的影响。启用此选项后,AI训练将仅在新的和恢复的聊天及编程会话中进行。较旧且未重新访问的聊天记录不会受到影响——至少目前如此。

更新政策有例外情况。Claude for Work(团队和企业计划)、Claude Gov和Claude Education不会受到影响。这也适用于第三方的应用程序编程接口使用,包括Amazon Bedrock和Google Cloud的Vertex AI。

在9月28日截止日期之前,用户可以通过关闭通知或选择"暂不"选项来忽略通知。截止日期后,用户必须做出选择才能继续使用Claude。

数据保留变更

选择参与AI模型训练的用户的数据保留时间也将从之前的30天大幅延长。选择参与的用户数据将被存储五年,与更新的训练政策一样,仅适用于新的或恢复的聊天。

Anthropic表示,延长数据保留期将使公司能够识别滥用行为并检测有害使用模式。

如何在Claude中更新隐私设置

如果用户意外选择参与新变更或因任何原因改变主意,始终可以选择退出。操作方法如下:

网页端:

1. 点击左下角的用户图标

2. 点击设置

3. 从侧面板点击隐私

4. 将"帮助改进Claude"切换为关闭

移动端:

1. 点击左上角的堆叠线条图标

2. 点击设置齿轮

3. 点击隐私

4. 将"帮助改进Claude"切换为关闭

如果用户之前选择参与但决定退出,新的和恢复的聊天将不再用于未来的AI模型训练。任何符合条件的数据仍将包含在已经开始的训练和已经训练的模型中,但不会用于未来的训练。

Q&A

Q1:Anthropic的数据使用政策变更会影响哪些用户?

A:变更将影响使用Claude免费版、专业版、最大版或代码会话的个人用户。但Claude for Work(团队和企业计划)、Claude Gov和Claude Education不会受到影响,第三方API使用也不受影响。

Q2:选择参与AI训练后数据会被保存多长时间?

A:选择参与AI模型训练的用户数据将从之前的30天保留期延长至5年。Anthropic称这将帮助公司识别滥用行为并检测有害使用模式。

Q3:如何在Claude中关闭数据训练功能?

A:用户可以在隐私设置中关闭"帮助改进Claude"选项。网页端需依次点击用户图标-设置-隐私进行设置,移动端需点击菜单图标-设置齿轮-隐私进行操作。

来源:cnet

0赞

好文章,需要你的鼓励

2025

08/29

13:30

分享

点赞

邮件订阅