Anthropic即将开始使用用户与Claude聊天机器人的对话记录来训练其大语言模型。该公告于周四发布,作为公司消费者条款和隐私政策的更新内容。
新用户在注册过程中将看到一个"帮助改进Claude"的选项,可以选择开启或关闭。现有用户将开始收到解释此变更的通知。用户需要在9月28日之前选择退出,因为该功能将默认启用。用户仍可以在Claude的隐私设置中关闭此选项。
Anthropic的代表拒绝对此发表评论。
变更内容
使用Claude免费版、专业版、最大版或代码会话的个人用户将在9月下旬受到此变更的影响。启用此选项后,AI训练将仅在新的和恢复的聊天及编程会话中进行。较旧且未重新访问的聊天记录不会受到影响——至少目前如此。
更新政策有例外情况。Claude for Work(团队和企业计划)、Claude Gov和Claude Education不会受到影响。这也适用于第三方的应用程序编程接口使用,包括Amazon Bedrock和Google Cloud的Vertex AI。
在9月28日截止日期之前,用户可以通过关闭通知或选择"暂不"选项来忽略通知。截止日期后,用户必须做出选择才能继续使用Claude。
数据保留变更
选择参与AI模型训练的用户的数据保留时间也将从之前的30天大幅延长。选择参与的用户数据将被存储五年,与更新的训练政策一样,仅适用于新的或恢复的聊天。
Anthropic表示,延长数据保留期将使公司能够识别滥用行为并检测有害使用模式。
如何在Claude中更新隐私设置
如果用户意外选择参与新变更或因任何原因改变主意,始终可以选择退出。操作方法如下:
网页端:
1. 点击左下角的用户图标
2. 点击设置
3. 从侧面板点击隐私
4. 将"帮助改进Claude"切换为关闭
移动端:
1. 点击左上角的堆叠线条图标
2. 点击设置齿轮
3. 点击隐私
4. 将"帮助改进Claude"切换为关闭
如果用户之前选择参与但决定退出,新的和恢复的聊天将不再用于未来的AI模型训练。任何符合条件的数据仍将包含在已经开始的训练和已经训练的模型中,但不会用于未来的训练。
Q&A
Q1:Anthropic的数据使用政策变更会影响哪些用户?
A:变更将影响使用Claude免费版、专业版、最大版或代码会话的个人用户。但Claude for Work(团队和企业计划)、Claude Gov和Claude Education不会受到影响,第三方API使用也不受影响。
Q2:选择参与AI训练后数据会被保存多长时间?
A:选择参与AI模型训练的用户数据将从之前的30天保留期延长至5年。Anthropic称这将帮助公司识别滥用行为并检测有害使用模式。
Q3:如何在Claude中关闭数据训练功能?
A:用户可以在隐私设置中关闭"帮助改进Claude"选项。网页端需依次点击用户图标-设置-隐私进行设置,移动端需点击菜单图标-设置齿轮-隐私进行操作。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。